Рейтинг@Mail.ru
Навигация

← Предыдущая статья             Содержание номера             Следующая статья →

Журнал First Break – Октябрь 2010 – Выпуск 10 – Том 28 – Новости EAGE

Семинар: Высокопроизводительные вычисления все еще интересуют геофизиков

Nicola Bienati (Eni), Jos? Maria Cela (BSC) и Robert Bloor (ION) рассказывают о пятом семинаре EAGE в Барселоне 'Роль супер-вычислений для изменения будущего отрасли отображения сейсмических данных'.

После положительного опыта проведения первого семинара по высокопроизводительным вычислительным системам в 2008 году в Риме, технический совет конференции в Барселоне решил вернуться к этой теме. На этот раз в центре внимания семинара оказалось взаимодействие сейсмического отображения и высокопроизводительных вычислительных систем. Действительно, хорошо известно, что применение отображения сейсмических данных очень требовательно к таким ресурсам вычислительной техники, как мощность процессоров, размер оперативной памяти, сеть, размер дисков и другим общим параметрам, описывающим в целом "суперкомпьютер". Причиной этого является с одной стороны размер решаемых задач, а с другой — сложность используемых для их решения алгоритмов.

Результатом явилось то, что исторически развитие технологий отображения сейсмических данных всегда зависело от уровня развития компьютерных технологий. Более того, недостаток компьютерных ресурсов будет продолжать ощущаться и в ближайшем будущем, поскольку уровень сложности применяемых алгоритмов визуализации все еще значительно ниже необходимого для расшифровки всей информации, которую несут сейсмические волны.

Хорошей новостью является то, что мы можем с уверенностью сказать, что темпы эволюции компьютерных систем не будут снижаться в ближайшее время. На рисунке показан график, полученный из анализа списка 500 крупнейших компьютерных систем, который обсуждался в ходе семинара. График отображает некоторые исторические данные, в частности производительность последней в списке системы. Примечательно, что производительность наименьшей в списке системе не только постоянно росла, но росла практически линейно в логарифмическом масштабе! Эта тенденция позволяет предсказать, что в 2015 году практически все наиболее мощные суперкомпьютеры в мире будут иметь вычислительную мощность, превышающую 1015 операций с плавающей точкой в секунду.

Трудно сказать, глядя на список, какой тип конфигурации оборудования обеспечит такую производительность, будут ли это системы, основанные на многоядерных процессорах, или гибридные системы, с акселераторами, или что-то принципиально новое. Эта неопределенность была заметна и на семинаре, где докладчики обсуждали все существующие сегодня различные платформы, начиная от многоядерных процессоров до GPU и программируемых вентильных матриц (FPGA). Доступность различных платформ создает дополнительные возможности, и одновременно усложняет ситуацию. Дополнительные возможности содержатся в том факте, что каждый тип оборудования может обеспечивать оптимальную производительность для определенного приложения. С другой стороны, это может привести к тому, что для каждого приложения будет использоваться своя платформа, что сильно усложнит управление процессами обработки данных в вычислительных центрах.

Производительность 500 систем списка измерялась на основе стандарта Linpack. Выбор стандарта всегда является спорным вопросом, поскольку невозможно выбрать единый стандарт, отражающий свойства всех приложений.

Одним из вопросов, обсуждавшихся на семинаре, был выбор стандарта. Конечно, существование некоторого надежного стандарта, приемлемого для отображения сейсмических данных, сильно облегчило бы жизнь разработчиков, обеспечив им полезную информацию о новых платформах без необходимости перевода приложений на нее. С другой стороны, эволюция компьютерных систем и приложений идет очень быстрыми темпами, и размерность пространства параметров, влияющих на производительность, настолько велика, задача создания понятного стандарта становится слишком сложной. Оказалось, что производительность это не только число операций с плавающей точкой в секунду, но также (и, возможно в первую очередь) байты в секунду, т.е. скорость обмена данными между памятью и вычислительным блоком. Последнее может оказаться ограничительным фактором, поскольку скорость вычислений растет быстрее полосы пропускания. Интересное наблюдение с этой точки зрения сделал Oliver Pell (Maxeler), который заметил, что для некоторых систем алгоритм, решающий задачу путем большого количества операций не обязательно менее эффективен, чем тот, который использует меньше операций, но больше — передачу данных. В качестве примера он упомянул, что в его реализации моделирования тонких различий на FPGA использование более компактного кубического шаблона вместо обычного лучевого может привести к более эффективному алгоритму, несмотря на увеличение числа операций.

Если компьютерное оборудование представляет одну сторону монеты, другая сторона — это языки и программные модели, являющиеся фундаментом для разработки новых приложений и импорта существующих на новые системные платформы, как FPGA и GP-GPU. С этой стороны тоже происходят быстрые перемены. CUDA сейчас признанная основа для Nvidia GPU, в конечном счете состоящая из таких фундаментальных инструментов, как отладчики. Scott Morton (Hess) рассказал, как он импортировал миграцию Кирхгоффа, WEM и RTM с помощью CUDA. С другой стороны существуют другие модели программирования для GPU, альтернативные CUDA. Одна из них — OpenCL, которая также обеспечивает импорт кодов между CPU и GP-GPU.

Henri Calandra (Total) представил свой опты в программировании GPU с помощью HMPP, программной моделью, разработанной CAPS на основе директив и обеспечивающей более высокий уровень абстрагирования по сравнению с CUDA. По мнению Henri, используя HMPP он смог получить значительное ускорение при импорте с CPU на GP-GPU сложных кодов типа RTM. Следуя той же идее повышения уровня абстрагирования (и упрощения жизни для программистов) Jos? Cela представил программную модель, разработанную в Вычислительном центре Барселоны (Barcelona Supercomputing Centre) под названием GMAC. Одной интересной особенностью GMAC является то, что она виртуально унифицирует пространство адресов памяти между GPU и хостом CPU. Тот же подход создания единого адресного пространства между акселератором и хостовым CPU предложил Steve Wallach (Convey) для FPGA.

Еще одной точкой обсуждения стали новые модели для использования HPC ресурсов, в частности облачного программирования (которое представляет собой HPC как интернет-сервис). В данный момент наблюдается растущий интерес к этим моделям из-за потенциальной финансовой экономии и возможности поглощать пики по требованию вычислительных ресурсов. Главные ограничения для их применения в индустрии отображения сейсмических данных, по-видимому, связаны с вопросами безопасности данных и качества сервиса.

Количество участников во время всего семинара было более чем удовлетворительным, в комнате постоянно присутствовали более 30 человек. Это подтверждает интерес геофизического сообщества к предмету обсуждения. Семинар продолжился в понедельник посещением Вычислительного центра Барселоны и суперкомпьютера MareNostrum.




← Предыдущая статья             Содержание номера             Следующая статья →















Яндекс цитирования
Журнал First Break и материалы всех мероприятий EAGE направляются на индексацию в систему Scopus.
Журналы Basin Research, Geophysical Prospecting, Near Surface Geophysics и Petroleum Geoscience направляются на индексацию в системы Scopus и Web of Science.