QPACE - QPACE

QPACE (QCD Параллельные вычисления на Ячейка широкополосного доступа ) это массивно параллельный и масштабируемый суперкомпьютер разработан для приложений в решеточная квантовая хромодинамика.

Обзор

Суперкомпьютер QPACE - это исследовательский проект, выполняемый несколькими академическими учреждениями в сотрудничестве с IBM Лаборатория исследований и разработок в Бёблингене, Германия, и другие промышленные партнеры, включая Евротек, Knürr, и Xilinx. Академическая проектная группа из около 20 младших и старших ученых, в основном физиков, прибыла из Регенсбургский университет (руководитель проекта), Вуппертальский университет, DESY Цойтен, Исследовательский центр Юлиха, а Университет Феррары. Основная цель заключалась в разработке масштабируемой архитектуры, оптимизированной для приложений, которая превосходит промышленные продукты с точки зрения производительности вычислений, соотношения цены и качества и энергоэффективности. Проект официально стартовал в 2008 году. Две установки были развернуты летом 2009 года. Окончательный проект был завершен в начале 2010 года. С тех пор QPACE используется для расчетов решеточная КХД. Архитектура системы также подходит для других приложений, которые в основном полагаются на связь с ближайшим соседом, например, решетка Больцмана методы.[1]

В ноябре 2009 года QPACE заняла лидирующую позицию в списке Green500 самых энергоэффективных суперкомпьютеров в мире.[2] Звание было защищено в июне 2010 года, когда архитектура достигла отметки энергии 773 MFLOPS на ватт в Тест Linpack.[3] в Top500 В списке самых мощных суперкомпьютеров QPACE занял 110–112 место в ноябре 2009 года и 131–133 место в июне 2010 года.[4][5]

QPACE финансировался Немецкий исследовательский фонд (DFG) в рамках SFB / TRR-55 и IBM. Дополнительные взносы внесли Евротек, Knürr, и Xilinx.

Архитектура

В 2008 году IBM выпустила PowerXCell 8i многоядерный процессор, расширенная версия IBM Ячейка широкополосного доступа используется, например, в PlayStation 3. Процессор получил большое внимание в научном сообществе из-за его выдающейся производительности с плавающей запятой.[6][7][8] Это один из строительных блоков IBM Roadrunner кластер, который был первой архитектурой суперкомпьютера, преодолевшей барьер PFLOPS. Кластерные архитектуры на основе PowerXCell 8i обычно полагаются на Блейд-серверы IBM соединены промышленными сетями, такими как Infiniband. Для QPACE был выбран совершенно другой подход. Специально разработанный сетевой сопроцессор, реализованный на Ксилинкс Виртекс-5 ПЛИС используются для подключения вычислительных узлов. ПЛИС - это перепрограммируемые полупроводниковые устройства, которые позволяют настраивать индивидуальные характеристики функционального поведения. Сетевой процессор QPACE тесно связан с PowerXCell 8i через собственный интерфейс ввода-вывода Rambus.

Самым маленьким строительным блоком QPACE является плата узла, на которой размещены PowerXCell 8i и FPGA. Карты узлов устанавливаются на объединительных платах, на каждой из которых можно разместить до 32 плат узлов. Одна стойка QPACE вмещает до восьми объединительные платы, с четырьмя объединительными панелями, каждая из которых установлена ​​на передней и задней стороне. Максимальное количество узловых плат на стойку - 256. QPACE полагается на решение с водяным охлаждением для достижения такой плотности упаковки.

Шестнадцать карт узлов отслеживаются и контролируются отдельной административной картой, называемой корневой картой. Еще одна административная карта на стойку, называемая суперкорневой картой, используется для мониторинга и управления источниками питания. Корневые карты и суперкорневые карты также используются для синхронизации вычислительных узлов.

Карточка узла

Сердце QPACE - это IBM PowerXCell 8i многоядерный процессор. Каждая карта узла содержит один PowerXCell 8i, 4 ГБ DDR2 SDRAM с участием ECC, один Ксилинкс Виртекс-5 FPGA и семь сетей трансиверы. Один 1 гигабитный Ethernet приемопередатчик подключает карту узла к сети ввода / вывода. Шесть 10-гигабитных трансиверов используются для передачи сообщений между соседними узлами в сети. трехмерная тороидальная сетка.

Сетевой сопроцессор QPACE реализован на ПЛИС Xilinx Virtex-5, которая напрямую подключается к Интерфейс ввода / вывода устройства PowerXCell 8i.[9][10] Функциональное поведение ПЛИС определяется язык описания оборудования и может быть изменен в любое время за счет перезагрузки карты узла. Большинство объектов сетевого сопроцессора QPACE закодированы в VHDL.

Сети

Сопроцессор сети QPACE подключает PowerXCell 8i к трем коммуникационным сетям:[10][11]

  • Сеть Torus - это высокоскоростной канал связи, который позволяет общаться с ближайшими соседями в трехмерная тороидальная сетка. Сеть торов опирается на физический слой из 10 Гбит Ethernet, в то время как для передачи сообщений используется специально разработанный протокол связи, оптимизированный для сообщений небольшого размера. Уникальной особенностью конструкции торовой сети является поддержка нулевая копия связь между частными областями памяти, называемыми локальными магазинами, Элементы синергетической обработки (SPE) по прямой доступ к памяти. Задержка для связи между двумя SPE на соседних узлах составляет 3 мкс. Пиковая пропускная способность на ссылку и направление составляет около 1 ГБ / с.
  • Коммутируемый 1 Gigabit Ethernet используется для файлового ввода-вывода и обслуживания.
  • Сеть глобальных сигналов представляет собой простую 2-проводную систему, организованную в виде древовидной сети. Эта сеть используется для оценки глобальных условий и синхронизации узлов.

Охлаждение

Вычислительные узлы суперкомпьютера QPACE охлаждаются водой. Приблизительно 115 Вт должны рассеиваться с каждой узловой карты.[10] Охлаждающее решение основано на двухкомпонентной конструкции. Плата каждого узла крепится к термобоксу, который действует как большой радиатор для термокритичных компонентов. Тепловой бокс соединяется с охлаждающей пластиной, которая подключена к контуру водяного охлаждения. Характеристики охлаждающей пластины позволяют отводить тепло от 32 узлов. Карты узлов устанавливаются с обеих сторон охлаждающей плиты, то есть по 16 узлов устанавливаются сверху и снизу охлаждающей плиты. Эффективность охлаждающего решения позволяет охлаждать вычислительные узлы теплой водой. Решение для охлаждения QPACE также повлияло на другие конструкции суперкомпьютеров, такие как SuperMUC.[12]

Установки

С 2009 года работают две идентичные установки QPACE с четырьмя стойками:

Суммарная пиковая производительность составляет около 200 TFLOPS с двойной точностью и 400 терафлопс с одинарной точностью. Установки эксплуатируются Регенсбургский университет, Исследовательский центр Юлиха и Вуппертальский университет.

Смотрите также

использованная литература

  1. ^ L. Biferale et al., Решеточно-больцмановская гидродинамика на суперкомпьютере QPACE, Процедуры информатики 1 (2010) 1075
  2. ^ Список Green500, ноябрь 2009 г., http://www.green500.org/lists/green200911
  3. ^ Список Green500, июнь 2010 г., http://www.green500.org/lists/green201006
  4. ^ Список Top500, ноябрь 2009 г., «Архивная копия». Архивировано из оригинал 17 октября 2012 г.. Получено 17 января, 2013.CS1 maint: заархивированная копия как заголовок (ссылка на сайт)
  5. ^ Список Top500, июнь 2010 г., «Архивная копия». Архивировано из оригинал 17 октября 2012 г.. Получено 17 января, 2013.CS1 maint: заархивированная копия как заголовок (ссылка на сайт)
  6. ^ Г. Биларди и др., Возможности многопроцессорной обработки на кристалле для машин QCD, Конспект лекций по информатике 3769 (2005) 386
  7. ^ S. Williams et al., Возможности клеточного процессора для научных вычислений, Труды 3-й конференции по компьютерным границам (2006) 9
  8. ^ G. Goldrian et al., QPACE: квантовая хромодинамика, параллельные вычисления на базе Cell Broadband Engine, Вычислительная техника в науке и технике 10 (2008) 46
  9. ^ И. Уда, К. Шлеупен, Примечание по применению: настройка интерфейса между FPGA и процессором IBM Power, Отчет IBM Research, 2008 г.
  10. ^ а б c H. Baier et al., QPACE - параллельный компьютер QCD на базе процессоров Cell, Известия науки (LAT2009), 001
  11. ^ С. Сольбриг, Синхронизация в QPACE, Конференция STRONGnet, Кипр, 2010 г.
  12. ^ B. Michel et al., Аквазар: Der Weg zu optimal effizienten Rechenzentren[постоянная мертвая ссылка ], 2011
  13. ^ Qpace - وپیس