Система в сборе 1. Кластер 2. ИБП 3. Стойка 14 U 4. Поставщик оборудования - компания Bevalex.
Тип узлаКоличеств о Характеристики узла Вычислительный7Blade: GPU SuperBlade SBI-7127RG 2 х CPU Intel Xeon E Gb RAM 2x Tesla M Gb RAM InfiniBand 4x QDR (40Gbps) Network 2x Gigabit Ethernet Управляющий1Blade: GPU SuperBlade SBI-7127RG 2 х CPU Intel Xeon E Gb RAM 2x SSD 80Gb 4x HDD 300Gb InfiniBand 4x QDR (40Gbps) Network 2x Gigabit Ethernet
CPUs (+120 GPUs) per 42U Rack GPUs: M2090, M2075, M2070Q, M2070, M Intel® Xeon® processor E family; QPI up to 8.0 GT/s 3. Intel® C602 Chipset 4. Up to 256GB RDIMM or 64GB UDIMM; 8x DIMM slots 5. Intel® i350 Dual port Gigabit Ethernet 6. 4x QDR (40Gb) InfiniBand or 10GbE mezzanine HCA 7. IPMI 2.0, KVM over IP, Virtual Media 8. 1x SATA DOM up to 64GB 9. Integrated Matrox G200eW Graphics
ХарактеристикаЗначение СемействоIntel Xeon E МикроархитектураSandy Bridge Запуск в продажу Март 2012 Количество ядер8 Поток на ядро2 Часто базовая2000 МГц Частота турбо2800 МГц (1 или 2 ядра) 2700 МГц (3 ядра) 2500 МГц (4, 5 или 6 ядер) 2400 МГц (7 или 8 ядер) Кэш L320 Мбайт Память4 канала DDR 3 ИнструкцииAVX, SSE1-4, EM64T, AES и др. Пиковая производительность (double) ~150 Gflops
ХарактеристикаЗначение МикроархитектураFermi Запуск в продажу2011 Количество ядер448 Часто ядер1215 МГц Память6 Гбайт Пропускная способность памяти 144 Гбайт/с Пиковая производи- тельность (double) ~500 Gflops
БГУИРК1000/2 СКИФ GPU Узлов Процессоров Ядер CPU Частота ядра CPU2,42,22,93 Производительность на ядро CPU (GFLOPS) 19,24,411,7 Производительность на CPU (GFLOPS)1548,847 Производительность всех CPU (GFLOPS) Колличество GPU1434 Пиковая производительность GPU (GFLOPS) Пиковая производительность всех GPU (GFLOPS) Суммарная пиковая производительность (GFLOPS) Задача DGEMM (перемножение плотных матриц double) Общая производительность CPU (GFLOPS) Общая производительность GPU (GFLOPS) Суммарная производительность CPU+GPU (GFLOPS)
Преимущества кластера: Современное оборудование. Высокая производительность одного узла. Низкая латентность сети передачи данных. Высокая энергоэффективность. Недостатки кластера: Малое число узлов Отсутствие дисковой подсистемы на вычислительных узлах
1. Этап опытной эксплуатации. Пользователи: НИЧ Общее окружение для всех (Linux). Собственное прикладное ПО (6 – 10 задач). Консольный доступ. Программное окружение: ALT Linux PBS Torque GCC, CUDA, OpenCL, MPI, NVIDIA libs
2. Базовый режим эксплуатации (в режиме облака) Пользователи: НИЧ + учебный процесс Виртуализация ресурсов. Индивидуальное системное окружение. Коммерческое прикладное программное обеспечение. Грид интерфейс.
Консольный режим исполнения. Компиляция под ОС Linux. Поддержка параллельных технологий: OpenMP, CUDA, MPI Время исполнения на ПК более нескольких минут. Объем данных до 10 Гбайт.
На уровне потоков/ядер CPU в рамках одного узла (10). Технологии: OpenMP, Linux/Windows Threads. На уровне CPU всех узлов (100) Технологии: OpenMP, MPI На уровне GPU одного узла (10 000) Технологии: CUDA, OpenCL На уровне GPU всех узлов ( )
OpenMP + MPI + CUDA Эффективность применения: 100%
OpenMP + MPI CUDA Эффективность применения: 60%
Используется только CPU (многопоточнос ть) Эффективность применения: 10-15%
Лаборатория (ФИО зав. лаборатории). Контактное лицо. Описание собственного прикладного ПО, которое планируется использовать на кластере. Описание задач, для которых кластер может понадобиться в будущем. Предложения по коммерческим и свободным пакетам программ, которые стоит установить на кластер.