World LHC Computing Grid Юлия Андреева ЦЕРН В презентации использованы слайды коллег из IT отдела ЦЕРНа
20 стран участниц ЦЕРН…
…и огромное сообщество пользователей в разных уголках планеты
ЦЕРН не обладает вычислительными мощностями необходимыми для обработки и хранения данных Возможные решения: Многкратное увеличение компьютерного центра ЦЕРНе ИЛИ Использование ресурсов институтов участвующих в экспериментах и расположенных в разных уголках земного шара Альтернативы по созданию компьютерной системы
Грид является географически распределённой инфраструктурой, объединяющей множество ресурсов разных типов (процессоры, долговременная и оперативная память, хранилища и базы данных, сети), доступ к которым пользователь может получить из любой точки, независимо от места их расположения. Идея грид-компьютинга возникла вместе с распространением персональных компьютеров, развитием интернета и технологий пакетной передачи данных на основе оптического волокна а также технологий локальных сетей (Gigabit Ethernet). Полоса пропускания коммуникационных средств стала достаточной, чтобы при необходимости привлечь ресурсы другого компьютера.интернеталокальных сетейGigabit Ethernet Термин «грид-вычисления» появился в начале 1990-х гг., как метафора о такой же лёгкости доступа к вычислительным ресурсам, как и к электрической сети (англ. power grid) в сборнике под редакцией Яна Фостера и Карла Кессельманаангл. Концепция ГРИДа
Распределенная компьютерная система предоствляющая ресурсы для LHC вычислений Разработанная, оперируемая и управляемая мировой научной коллаборацией между экспериментами и компьютерными центрами Главная идея заключается в использовании компьютерных ресурсов независимо от места их расположения Компьтерный ГРИД для LHC - это …
Мы имеем дело распределенными ресурсами (компьютерные мощности, кадры, финансирование) Участнинки LHC заинтересованы вкладывать деньги в ресурсы в своей стране одновременно решая общую задачу С техничекой точки зрения распределенная система более надежна. Компьтерный ГРИД для LHC - почему?
Компьютерный ГРИД для LHC это система созданная для пользователей Несколько слоев матобеспечения решают задачу абстагирования пользователя от сложности имплементасии компьтерной системы Пользователь видит ГРИД как единый вычислительный ресурс
Объем данных – Высокая скорость набора данных помножить на большой объем данных помножить на 4 эксперимента – 20 Petabytes новых данных в год – Все данные должны архивироваться на лентах Вычислительные мощности – Сложные события × большое количество событий × тысячи пользователей: 100,000 прсессоров Сложность имплементации диктуется высокими требованиями Распределенные ресурсы и финансирование Неоднородное матобеспечение Федерация ГРИД систем (EGEE, OSG, NorduGrid) Большое количество пользователей – 5000 ученых – 500 институтов WLCG инфраструктура работает с 2005 года
WLCG структура Tier-0 (CERN) 11 Tier Tier-2
WLCG 2010 – CPU 100,000 cores – Диски 100 PB – Ленты 100 PB – Скорость передачи данных из ЦЕРНа 5 GB/s WLCG завтра (2012) – + 30% of CPU – + 50% дискового пространства – + 200% пространства на лентах WLCG сегодня и завтра Totals CERN CPU CERN disk CERN tape T1 CPU T1 disk T1 tape T2 CPU T2 disk CPU in kHEP-SPEC06 Disk and tape in PB
Передача данных – Туда, где они должны храниться и обрабатываться Production вычисления (рекострукция, симуляция) Analysis вычисления Задачи решаемые на WLCG
Архитектура WLCG Матобеспечение экспериментов Матобеспечение ГРИД File Transfer Service Сервис передачи данных ГРИД каталог Job management system Система управления заданиями Storage Resource Manager Мэнэджер доступа к устройству хранения данных Компьютерный элемент Уровень локального центра Базы данных Система хранения данных Организация вычислительных ресурсов Сеть
Обработка пользовательской задачи Пользователю нужно запустить задание, которое использует входные данные X и версию матобеспечения Y Матобеспечение эксперимента Система запуска задач проверит в каких центрах находятся входные данные X и подготовит пакет содержащий пользовательский код и комаду запуска задания на языке понятном ГРИД системе управления задач. Система запуска задач обратится к ГРИД системе управления задач Пользователь может спросить о статусе своей задачи и извлечь результат вычислений Пользователь не общается напрямую с ГРИДом. ГРИД Система управления задач Принимает решение на какой компьютерный элемент послать задачу Пересылает рабочий пакет и передает управление на компьютерный элемент Система слежения за выполнением задачи Система Идентификации пользователя Проверяет имеет ли пользователь право использовать вычислительнй ресурс Компьютерный элемент Помещает задачу в очередь на выполнение на конкретном центре. После завершения выходные данные пересылаются на систему хранения данных принадлежащей системе управления задач. Система слежения за выполнением задач оповещается о завершении задачи Локальный компьютерный центр Задача пересылается на вычислительный ресурс и запускается.
Вычисления тысяч задач решается параллельно Около милиона задач обрабатывается ежедневно
Распределение задач по компьютернм центрам 26 June Распределение задач по компьютерным центрам демонстрирует важность использования ГРИД системы – Вклад центро второго уровня ~ 50%; – >85% iвычислений производится вне ЦЕРНа Tier 2 sites Tier 0 + Tier 1 sites
9 Российских и один Украинский центр предоставляют свои ресурсы для LHC. Эти центры являютя частью Российского ГРИДА (Russian Data Intensive GRID) Они расположены в Москве, Помосковье, Петербурге, Ленинграской области и на Украине Являются центрами второго уровня Недавно достигнута договоренность, что в России буде создаваться центр первого уровня на базе Дубны и Курчатовского института Вклад Российских центров
Добиться надежной и эффективной работы такой большой, сложной и неоднородной инфраструктуры очень трудно Компьютерные смены Постоянное общение между экспериментами и вычислительными центрами (ежедневные получасовые рабочие собрания) Тестирование распределенных центров и сервисов Мониторирование Как добиться надежной и эффективной работы инфраструктуры
Разработана система удаленного тестирования распределенных сервисов и центров Тесты проверяющие определенную функциональность регулярно запускаются как ГРИД задачи на все центры инфраструктуры Результаты выполнения этих тестов сохраняются в центральной базе данных На основании результатов этих тестов вычисляется эффективность работы центра Центры не справляющиеся с критическими тестами временно исключаются из информационной системы и становятся невидимыми длясистемы управления задач Тестирование
Видимое улучшение качества работы инфраструктуры
Разработано большое количество систем позволяющих мониторировать состояние и эффективность работы отдельных сервисов, сайтов, а так же эффективность передачи данных и ведения вычислений Роль систем мониторирования очень важна, т.к. они позволяют обнаружить проблемы, идентифицирвать их причины и принять меры по их устранению Мониторирование
Виртуальная машина эмулирует работу реального компьютера или отдельных компонентов аппаратного обеспечения (включая BIOS, оперативную память, жёсткий диск и другие периферийные устройства) или некоторой вычислительной среды BIOSоперативную памятьжёсткий диск периферийные устройства Например, Windows можно запускать в виртуальной машине под Linux или наоборотWindows Linux На одном компьютере может функционировать несколько виртуальных машин => можно имитировать несколько серверов на одном компьютере Появление виртуальных машин позволяет существенно облегчитьподдержку вычислительных кластеров и установку/переустанвку на них требуемого окружения, сервисов, т.д. Появление виртуальных машин дало толчок Cloud computing Виртуальные машины
Cloud computing
Cloud computing (Облачные вычисления) предлагает путь как можно по мере необходимости, возможно временно увеличить вычислительные мощности, не закупая оборудования, не расширяя помещения, не нанимая и обучая персонал т.д. Облачные вычисления представляют собой динамически масштабируемый способ доступа к внешним вычислительным ресурсам в виде сервиса, предоставляемого посредством Интернета При этом пользователю не требуется никаких особых знаний об инфраструктуре "облака" или навыков управления этой "облачной" технологией. На сегодняшний день "китами" индустрии облачных вычислений считаются компании Google, Amazon, Microsoft, IBM, Sun, Ubuntu и другие. Cloud computing
Скорее всего будущее за комбинированным решением: ГРИД состоящий из облаков, где отдельный компьютерный центр входящий в ГРИД структуру может быть технически реализован в виде облака В настоящее время ведутся работы по созданию не коммерческих облаков на базе компьютерных ресурсов ЦЕРНа и других центров и адаптации заданий симуляции, реконструкции и физического анализа на коммерческих и не коммерческих облаках GRID или CLOUD?
ГРИД стал реальностью WLCG инфраструктура – в настоящий момент самая большая существующая ГРИД инфраструктура. Она была создана для вычислений и хранения данных экспериментов БАК (Большого Адронного коллайдера). Эта инфраструктура объединяет более 150 компьютерных центров в разных уголках планеты и используется учеными 500 институтов Опыт использования инфраструктуры после запуска ускорителя доказал правильность технического решения имплементации компьютерной системы БАК в виде распределенной ГРИД системы В настоящее время рассматрваются новые технические решения, как например интеграция ГРИДа и облачных вычислений Заключение