АТЛАС DC2 Основные особенности 10 млн. физических событий несколько миллионов событий для калибровки (частицы, di-jets) полностью проводился на Gridе: –LCG2 –Nordugrid –Grid3
Временная и организационная структура DC2 DC2 включает в себя три фазы: фаза I: симуляция MC данных –на все 3-х Gridах, по всему миру –первоначальные сроки май-июнь 2004 –реально июль-ноябрь, причём собственно симуляция (Geant4) завершена во второй половине сентября фаза II: тестирование работы Tier-0 центра в ЦЕРНе –ноябрь-декабрь –за 10 дней сделать то, что будет делаться при начале реального набора статистики за 1 день –input Raw Data like –output (ESD+AOD) должен быть распределён в Tier-1 центры в режиме реального времени для анализа фаза III: тест распределённого анализа на Gridе –начало 2005 г. –доступ к анализируемым данным как в организованном, так и в хаотичекском порядке
Временная и организационная структура DC2 Фаза 1 DC2 Часть 1: генерация событий –физ.процесс -> 4-х импульсы частиц Часть 2: моделирование отклика детектора (Geant4) –трекинг частиц через детектор –запись взаимодействия с чувствительными элементами детектора Часть 3: наложение pile-upа и оцифровка –pile-up: суперпозиция фоновых событий на сигнальные –оцифровка: имитация отклика чувствительных элементов дет-ра –output в byte stream формате подобен Raw Data
Временная и организационная структура DC2 Фаза II DC2 Часть 4: передача данных в Tier-0 ЦЕРНа: 100K файлов, ~25 ТБ Часть 5: смешивание событий: ~30 физ.каналов Часть 6: Tier-0 exercise Tier-0 exercise реконструкция –byte stream data --> ESD (Event Summary Data) –ESD --> AOD (Analysis Object Data) в 10 различных потоков и коллекций событий параллельное распределение ESD и AOD в режиме реального времени (ESD в 2 Tier-1, AOD - во все)
ATLAS Production system LCGNGGrid3LSF LCG exe LCG exe NG exe G3 exe LSF exe super prodDB dms RLS jabber soap jabber Don Quijote Windmill Lexor AMI Capone Dulcinea
Установка ATLAS sw Включает 3 фазы установка sw проверка правильности установки и конфигурации сайта –Validation Kit - набор из ~20 тестов, запускающих ATHENAу в различных конфигурациях в случае успеха выставление соответствующих tagов в Gridовской информационной системе Стандартно выполняется запуском одного Gridовского jobа из ЦЕРНа У нас до сентября устанавливалось под AFS вручную, Validation Kit - запуск из ЦЕРНа
Наши проблемы до сентября 55 mailов в ЦЕРН, касающиеся установки sw и включения в ATLAS BDII 17 июня - 16 декабря 34 mailа после 8 сентября Проблемы: отсутствие нормальной связи задержка с конфигурированием и регистрацией фермы в LCG истечение срока действия CA сертификата собственные проблемы АТЛАСа
Наши проблемы после сентября Не удалась установка ATLAS sw Gridовским jobом проблемы, связанные с нетрадиционной конфигурацией сайта ошибки в конфигурировании задержки с запуском установочных jobов из ЦЕРНа сбои в работе hw bugи в поставляемом mw недостатки в мониторировании фермы
Положительные итоги Создана и отлажена надёжная оптическая линия связи Отлажена работа фермы в режиме одновременного её использования Grid и неGrid пользователями Установлен AFS сервер Обеспечена работа фермы под PBS с AFS accountами Создан SE, сопряжённый с Castorом Нужно: усилить мониторирование работоспособности фермы