16:42 14.11.2014 |   3405



Дэйв Тюрек, вице-президент IBM по техническим вычислениям и взаимодействию с альянсом OpenPower, объявил, что уже в следующем году могут появиться суперкомпьютеры IBM новой архитектуры — с увеличенным количеством сопроцессоров и программируемых логических матриц FPGA. Ее особенностью станет обработка данных на всех уровнях системной иерархии, в том числе на уровне хранения, памяти и ввода/вывода, указал Тюрек.

Это позволит разбивать задачи параллельной обработки на мелкие фрагменты, чтобы сократить число тактов, уходящих на решение. У нынешних суперкомпьютерных архитектур есть узкие места — много времени и энергии тратится на непрерывный перенос больших объемов данных между процессорами, памятью и накопителями. В IBM хотят сократить объем переносимых данных, что позволит обрабатывать их втрое быстрее, чем сейчас.

Как отметил Тюрек, сегодня объем входных данных растет быстрее, чем быстродействие суперкомпьютеров, — сети и процессоры не становятся быстрее, доступ к данным не особенно ускоряется.

Новая модель выполнения приложений, предлагаемая IBM, будет проприетарной. Тюрек привел простой пример применения: можно уменьшить срез данных за счет предварительной обработки информации еще на накопителях. По его словам, подобная схема работы подошла бы для систем моделирования, используемых в нефтегазовой отрасли. Она позволила бы значительно сократить период до принятия решений о бурении, обычно составляющий месяцы.

В системную иерархию в IBM планируют включить энергонезависимую оперативную память, которая позволит существенно снизить задержку доступа, увеличить пропускную способность и отменить необходимость в переносе данных на центральные системы хранения.

В IBM не оспаривают классическую компьютерную архитектуру Джона фон Нейманна. Как отмечает Тюрек, на уровне индивидуальных вычислительных элементов она сохранится, но на уровне системы в целом есть определенные изменения — вычисления переносятся ближе к данным, за счет чего экономятся время и электроэнергия.

Помимо того, в IBM будут искать пути оптимизации суперкомпьтерных рабочих задач, связанных с моделированием, симуляцией, визуализацией и сложным анализом огромных срезов данных. Предстоит разработка приложений, специально оптимизированных для обработки на нескольких системных уровнях. В IBM совместно с другими коммерческими компаниями и научным сообществом разрабатывают новые модели программного обеспечения для ключевых отраслей.

Тюрек также коснулся принципов составления рейтинга суперкомпьютеров Top500, посетовав, что тест Linpack, на котором тот основан, не учитывает оптимизацию за счет целочисленной обработки, FPGA и других специализированных механизмов. По словам Тюрека, исследование IBM показало, что быстродействие многих классических суперкомпьютерынх приложений лишь умеренно соотносится с показателями Linpack.

Компьютеры, базирующиеся на новых принципах доступа к данным и их интерпретации, сегодня разрабатывают и другие. У D-Wave Systems это квантовый компьютер, у Hewlett-Packard — архитектура Machine с энергонезависимой памятью на мемристорах и передачей данных по световому лучу.


Теги: Суперкомпьютеры IBM HPC Top500 Джон фон Нейман
На ту же тему: