Система в сборе 1. Кластер 2. ИБП 3. Стойка 14 U 4. Поставщик оборудования - компания Bevalex.

Презентация:



Advertisements
Похожие презентации
М.Л. Цымблер, Л.Б. Соколинский Южно-Уральский государственный университет (Челябинск) Организация систем хранения данных на базе вычислительных кластеров.
Advertisements

Институт программных систем Российской академии наук 1 Суперкомпьютерная программа «СКИФ-ГРИД» Союзного государства Третий Форум проектов союзных программ.
Практический опыт и особенности построения Суперкомпьютерного центра СГАУ «Сергей Королев» Колпащиков Андрей главный инженер компании «ПАРУС»
Суперкомпьютер «УРАН» Андрей Созыкин Заведующий сектором суперкомпьютерных технологии ИММ УрО РАН Заведующий кафедрой высокопроизводительных.
Санкт-Петербургский Государственный Политехнический Университет Развитие высокопроизводительных вычислительных ресурсов вуза 21 ноября 2011 В.С. Синепол.
Параллельные вычисления Лекция 6. y = 3x + 7x – 8x при x = 4 y1 = 3x(1 действие) y2 = 7x(2 действие) y3 = 8x(3 действие) y = y1 + y2 – y3(4 действие)
1 Supermicro SuperBlade Новые серверные решения компании SUPERMICRO США Презентация Июнь, 2007 ИТ-Бизнес-Металл.
Схема экспериментальной сети T-Grid Института программных систем РАН Cуперкомпьютер Первенец-М (пиковая производительность 98 GFlops) - 16 узлов ( 2 x.
СОЗДАНИЕ ВИРТУАЛЬНОЙ ИНФРАСТРУКТУРЫ В ЦЕНТРАЛЬНОМ АППАРАТЕ ФЕДЕРАЛЬНОГО КАЗНАЧЕЙСТВА И МИГРАЦИЯ СУЩЕСТВУЮЩИХ ФИЗИЧЕСКИХ СЕРВЕРОВ В ВИРТУАЛЬНУЮ ИНФРАСТРУКТУРУ.
The AMD Athlon (K7). Шина AMD Athlon AMD Opteron.
Методы построения и программное обеспечение вычислительных кластеров Дмитрий Лайком гр. 8ВМ23.
Компания «Т-Платформы» Является ведущим российским разработчиком кластерных решений Поставляет высокопроизводительные решения для любых отраслей народного.
5 марта 2015 г. 5 марта 2015 г. 5 марта 2015 г. 5 марта 2015 г. 5 марта 2015 г.
Текущее состояние проекта по строительству суперкомпьютера МГУ на 60 Тфлопс на 60 Тфлопс Директор НИВЦ, профессор А.В.Тихонравов.
Технология виртуализации Citrix XenServer Жадан Алексей, Медиа Холдинг АТВ / Bizler.ru.
Санкт-Петербургский Государственный Политехнический Университет Развитие информационной инфраструктуры вуза в рамках проекта НИУ 19 Октябрь 2010 В.С. Заборовский.
Решения компании «Т-Платформы» для высокопроизводительных вычислений: взаимовыгодное сотрудничество отечественной науки и бизнеса.
Федеральная служба государственной регистрации, кадастра и картографии (Росреестр) Разработка схем взаимодействия Росреестр - МФЦ Москва 2013.
АЛУ УУ память – RAM, ROM, КЭШ процессора Центральный процессор, микропроцессоры ВЗУ – HDD, FDD, CD/VDV Логическое устройство компьютерных систем по Фон.
КОНОПЛЕВ В.В., НАЗИРОВ Р.Р. ИКИ РАН ИНФОКОММУНИКАЦИОННЫЕ ТЕХНОЛОГИИ В НАУЧНЫХ ИССЛЕДОВАНИЯХ ТАРУСА, НОЯБРЬ 2012 Экспериментальное вычислительное "облако"
Транксрипт:

Система в сборе 1. Кластер 2. ИБП 3. Стойка 14 U 4. Поставщик оборудования - компания Bevalex.

Тип узлаКоличеств о Характеристики узла Вычислительный7Blade: GPU SuperBlade SBI-7127RG 2 х CPU Intel Xeon E Gb RAM 2x Tesla M Gb RAM InfiniBand 4x QDR (40Gbps) Network 2x Gigabit Ethernet Управляющий1Blade: GPU SuperBlade SBI-7127RG 2 х CPU Intel Xeon E Gb RAM 2x SSD 80Gb 4x HDD 300Gb InfiniBand 4x QDR (40Gbps) Network 2x Gigabit Ethernet

CPUs (+120 GPUs) per 42U Rack GPUs: M2090, M2075, M2070Q, M2070, M Intel® Xeon® processor E family; QPI up to 8.0 GT/s 3. Intel® C602 Chipset 4. Up to 256GB RDIMM or 64GB UDIMM; 8x DIMM slots 5. Intel® i350 Dual port Gigabit Ethernet 6. 4x QDR (40Gb) InfiniBand or 10GbE mezzanine HCA 7. IPMI 2.0, KVM over IP, Virtual Media 8. 1x SATA DOM up to 64GB 9. Integrated Matrox G200eW Graphics

ХарактеристикаЗначение СемействоIntel Xeon E МикроархитектураSandy Bridge Запуск в продажу Март 2012 Количество ядер8 Поток на ядро2 Часто базовая2000 МГц Частота турбо2800 МГц (1 или 2 ядра) 2700 МГц (3 ядра) 2500 МГц (4, 5 или 6 ядер) 2400 МГц (7 или 8 ядер) Кэш L320 Мбайт Память4 канала DDR 3 ИнструкцииAVX, SSE1-4, EM64T, AES и др. Пиковая производительность (double) ~150 Gflops

ХарактеристикаЗначение МикроархитектураFermi Запуск в продажу2011 Количество ядер448 Часто ядер1215 МГц Память6 Гбайт Пропускная способность памяти 144 Гбайт/с Пиковая производи- тельность (double) ~500 Gflops

БГУИРК1000/2 СКИФ GPU Узлов Процессоров Ядер CPU Частота ядра CPU2,42,22,93 Производительность на ядро CPU (GFLOPS) 19,24,411,7 Производительность на CPU (GFLOPS)1548,847 Производительность всех CPU (GFLOPS) Колличество GPU1434 Пиковая производительность GPU (GFLOPS) Пиковая производительность всех GPU (GFLOPS) Суммарная пиковая производительность (GFLOPS) Задача DGEMM (перемножение плотных матриц double) Общая производительность CPU (GFLOPS) Общая производительность GPU (GFLOPS) Суммарная производительность CPU+GPU (GFLOPS)

Преимущества кластера: Современное оборудование. Высокая производительность одного узла. Низкая латентность сети передачи данных. Высокая энергоэффективность. Недостатки кластера: Малое число узлов Отсутствие дисковой подсистемы на вычислительных узлах

1. Этап опытной эксплуатации. Пользователи: НИЧ Общее окружение для всех (Linux). Собственное прикладное ПО (6 – 10 задач). Консольный доступ. Программное окружение: ALT Linux PBS Torque GCC, CUDA, OpenCL, MPI, NVIDIA libs

2. Базовый режим эксплуатации (в режиме облака) Пользователи: НИЧ + учебный процесс Виртуализация ресурсов. Индивидуальное системное окружение. Коммерческое прикладное программное обеспечение. Грид интерфейс.

Консольный режим исполнения. Компиляция под ОС Linux. Поддержка параллельных технологий: OpenMP, CUDA, MPI Время исполнения на ПК более нескольких минут. Объем данных до 10 Гбайт.

На уровне потоков/ядер CPU в рамках одного узла (10). Технологии: OpenMP, Linux/Windows Threads. На уровне CPU всех узлов (100) Технологии: OpenMP, MPI На уровне GPU одного узла (10 000) Технологии: CUDA, OpenCL На уровне GPU всех узлов ( )

OpenMP + MPI + CUDA Эффективность применения: 100%

OpenMP + MPI CUDA Эффективность применения: 60%

Используется только CPU (многопоточнос ть) Эффективность применения: 10-15%

Лаборатория (ФИО зав. лаборатории). Контактное лицо. Описание собственного прикладного ПО, которое планируется использовать на кластере. Описание задач, для которых кластер может понадобиться в будущем. Предложения по коммерческим и свободным пакетам программ, которые стоит установить на кластер.