Рейтинг@Mail.ru
Навигация

← Предыдущая статья             Содержание номера             Следующая статья →

Журнал First Break – Январь 2015 – Выпуск 1 – Том 33 – Новости EAGE

Как высокопроизводительные вычисления могут улучшить построение сейсмических изображений?

На семинаре EAGE по высокопроизводительным вычислениям в разведочно-добывающей отрасли были представлены современные достижения в этой области, а также обсуждались перспективы развития методов построения сейсмического изображения (обратная миграция во временной области, RTM и инверсия с учётом формы импульса, FWI) и моделирования коллекторов в сочетании с технологиями HHC, используемыми для этих целей. Мероприятие проходило в городе Ханья на острове Крит 7—10 сентября 2014 г.

На первой сессии по FWI основной докладчик проф. Jean Virieux из Университета Жозефа Фурье (Гренобль) рассказал интересную историю инверсии с учётом формы импульса, подчеркнув важность сопряжённого источника для точности и надёжности градиентных численных методов, используемых в процессе инверсии. Victor Arslan из CGG сравнил результаты обратной миграции во временно области, полученные в кластере Xeon Phi, и оптимизированной архитектуры, состоящей из вычислительных узлов с графическим ускорителем NVidia.

Вторая сессия началась с выступления проф. Jan Odegard из Университета Райса, который задался вопросом о значимости закона Мура и способах его адаптации к имеющимся многоядерным решениям во временной перспективе, выходящей за рамки нынешнего десятилетия. Затем выступил Majdi Baddourah из Saudi Aramco, который поднял вопросы управления системами петафлопсного класса. Также обсуждалась важность улучшения алгоритмов, поскольку давно было доказано, что они имеют большое влияние на производительность. Было показано также, что новый способ моделирования каротажа методом сопротивлений через обсадную колонну может давать очень точные результаты с минимальными затратами благодаря полуаналитической модели, представленной Aralar Erdozain из INRIA. Eng Lim Goh, технический директор компании SGI, заявил о том, что затраты на сейсморазведку оказываются порой ниже, чем на электропитание и охлаждение современных суперкомпьютеров. В докладе были рассмотрены усилия исследователей по созданию специальных жидкостей для почти пассивного охлаждения высокопроизводительных компьютеров. Двухэтапное погружение позволяет сокращать затраты на охлаждение до 95%. Докладчик также добавил, что у традиционных ЦП имеются два основных конкурента: графические процессоры общего назначения (GPGPU), или акселераторы (IXeon Phi от Intel, Tesla от NVIDA и Radeons от AMD), и гибридные процессоры, или APU (AMD AM1, Tegra K1 от NVIDIA, Haswel от Intel), представляющие собой полноценные процессоры, часть интегральной схемы которых выделена для графического процессора. По результатам сессии была обозначена двусторонняя проблема: (а) необходимость миграции (или перезаписи) устаревших кодов для применения в многоядерных процессорах и акселераторах; (б) для внедрения акселераторов потребность в повышении производительности должна быть достаточно сильной, учитывая затраты на миграцию ПО и приобретение оборудования.

На третьей сессии John Shumway из компании Stone Ridge Technology рассказал о практическом подходе к моделированию коллектора с применением нескольких ЦП, что обеспечивает ускоренный цикл обработки на одной рабочей станции больших моделей, содержащих от нескольких десятков до нескольких миллионов ячеек. Продолжая эту тему, Tommy Miller из Ridgeway Kite Software наглядно показал, что модели с полезным разрешением, состоящие из одного миллиона ячеек, могут эффективно обрабатываться одним ЦП при использовании преимуществ параллельной обработки, при этом более важным может оказаться высокая пропускная способность памяти, относящейся к соответствующему ЦП. Он продемонстрировал использование кластера из нескольких ЦП для обработки рабочих процессов с многократной реализацией, где эта возможность внедрена в сам имитатор и оптимизирована с целью извлечения всех преимуществ оборудования. Cendric Andreolli из Intel рассказал о проблеме, связанной с тем, что в сложных вычислительных системах слишком велик диапазон параметров, влияющих на производительность. Её нельзя решить простым методом проб и ошибок, если говорить о методах настройки вручную, последствиях декомпозиции области, возможностях компилятора и применяемого оборудования. Затем он предложил методы автоматической настройки для оптимизации исходных кодов перед компиляцией с помощью различных индикаторов компилятора или в процессе выполнения путём настройки входных параметров. Он рассказал, что в результате удалось добиться повышения производительности ЦП в шесть раз и Xeon Phi почти в 30 раз. Paulo Souza из Petrobras предложил параллельную реализацию RTM на основе взаимодействия нескольких ЦП и копроцессоров, что вполне сопоставимо по эффективности с другими доступными решениями для ускорения вычислений. Он продемонстрировал результаты повышения масштабируемости благодаря такой реализации на основе нескольких копроцессоров (Xeon Phi) и узлов, а также повышение производительности на ватт энергии при использовании нескольких копроцессоров. Julien Diaz из INRIA предложил использовать парадигмы программирования на основе графа задачи, обеспечивающие автоматическое распределение параллелизма при динамической работе систем. Он представил модель программирования на основе задач для промышленной программы моделирования упругодинамики.

Четвёртая сессия была посвящена практическому опыту и проектированию программных средств, несколько докладов содержали примеры использования суперкомпьютеров петафлопсного и эксафлопсного класса. Tryggve Fossum, сотрудник Intel Fellow и руководитель направления масштабируемой компьютерной архитектуры в группе центров данных корпорации Intel, сказал, что путь достижения эксафлопсной производительности должен опираться на микросхемы с несколькими процессорными ядрами на кристалл, память с прямым подключением, тысячи узлов с широкополосной связью между ними и сеть с распределённой памятью. Он акцентировал внимание на микроархитектурных проблемам такой системы: способах минимизации потребления электроэнергии, проектировании эффективной системы локальной памяти, широкополосном доступе к удалённой память и создании сети с малым временем задержки. Micheal Perrone рассказал о концепции IBM по повышению производительности до эксафлопсного уровня в разведочно-добывающей отрасли. Для достижения такой производительности понадобятся системы с разной архитектурой и очень большим количеством более медленных ядер. Модернизация алгоритмов должна опираться на преимущества такой гибридной среды. Среди участников развернулась дискуссия о технологиях охлаждения суперкомпьютеров. Все пришли к общему мнению, что в ближайшие годы можно прогнозировать преобладание жидкостного охлаждения, особенно в случае очень больших компьютеров, главным образом, для значительного повышения энергоэффективности и возможностей охлаждения гораздо более плотных систем. Однако среди участников так и не был достигнут консенсус в отношении реализации таких способов, как охлаждаемые двери, платы с локальным жидкостным охлаждением и погружение.

На пятой сессии профессор Hamdi Tchelepi из Стэндфордского университета остановился на трёх основных проблемах моделирования коллекторов. Во-первых, он сказал об оценке неопределённостей при прогнозировании модели пласта, а также предложил вероятностную среду на основе моделирования по методу Монте-Карло. Вторая проблема связана с масштабируемостью, докладчик предложил среду на основе алгебраического многомасштабного решателя и её реализацию в активно развивающихся параллельных архитектурах. Третья проблема связана с нелинейным развитием связанных систем уравнений, которые описывают многокомпонентный многофазный поток в крупномасштабных геологических пористых структурах. Он описал стратегию решения на основе конструирования доверительных областей для решения проблемы нелинейного многофазного переноса и показал, что могут быть получены нетрадиционные сходящиеся итерационные схемы. Вадим Лисица из Института геофизики СО РАН продемонстрировал, как можно получить свойства трещиноватых коллекторов с помощью эффекта множественного рассеяния волнового поля, вызванного флюидонасыщением. Были использованы многочисленные исследования распространения сейсмических волн в заполненных флюидами трещиноватых коллекторах для определения размера каверн и трещин, а также получения требуемых свойств коллектора. Eyal Cohen из Университета Тель-Авива представил два подхода к повышению производительности при численном моделировании распространения волн на основе метода спектральных элементов. Во-первых, необходима предварительная оценка параметров модели. Благодаря выбору правильных параметров можно сократить общее количество элементов и использовать минимальный порядок квадратурных формул при обеспечении точности моделирования. Во-вторых, требуется параллельная реализация численного алгоритма. Mauricio Hanzich из Барселонского суперкомпьютерного центра представил эффективную систему инверсии с учётом формы импульса на основе набора из двух платформ разработки: на основе ядра и рабочих процессов. Платформа на основе ядра упрощает разработку кодов, которые выполняют одну HPC-симуляцию, такую как моделирование одного сейсмического взрыва, в то время как платформа на основе рабочего процесса определяет рабочий процесс, который представляет собой сложный набор задач, включающих запуск различных ядер, обеспечивающих окончательный результат.

На шестой сессии Saber Feki из Научно-технологический университет имени короля Абдаллы продемонстрировал, как подходы на основе автоматической настройки привели к повышению производительности исходного кода и его способности адаптироваться к разным средам выполнения. Он привёл примеры того, как подход на основе автоматической настройки с использованием абстрактных данных и библиотека межпроцессорного взаимодействия позволили повысить производительность интерфейса передачи данных, а также того, как аналогичный подход, применённый к OpenACC, позволил ускорить сейсмический код и оптимизировать работу требовательного к ресурсам ядра приложения обратной временной миграции.

Во время последней сессии состоялся круглый стол на тему «Оборудование — программное обеспечение — персонал: что из этого будет самым важным через три, пять и десять лет?». Вполне естественно напрашивался вывод, что путь к вычислительным системам будущего лежит через использование акселераторов самых разных типов. Будут меняться и модели программирования с учётом новых акселераторов, которые увеличат потребности в области программирования, связанные с проектами в области геологоразведки и добычи. Имеющихся навыков, необходимых для воплощения современных алгоритмических идей в практику, вскоре будет недостаточно. Компаниям нужно расширить требования к квалификации при подборе персонала и, что более важно, сделать это как можно быстрее, наладив партнёрские связи с группами, которые могут обеспечить необходимую техническую квалификацию для разработки сложных систем. Нам необходимы модели для физиков, которые нужно сопоставить с алгоритмами решения уравнений, которые, в свою очередь, нужно соотнести с программным обеспечением, а также необходимо структурировать ПО для его выполнения на больших вычислительных машинах параллельного действия. Проектировщики оборудования должны понимать этот рабочий процесс, чтобы обеспечить аппаратную поддержку самых важных функций. Главное то, что на семинаре EAGE были представлены специалисты во всех областях, связанных с решением основной проблемы, которые смогли обменяться мнениями и многому научиться друг у друга.




← Предыдущая статья             Содержание номера             Следующая статья →















Яндекс цитирования
Журнал First Break и материалы всех мероприятий EAGE направляются на индексацию в систему Scopus.
Журналы Basin Research, Geophysical Prospecting, Near Surface Geophysics и Petroleum Geoscience направляются на индексацию в системы Scopus и Web of Science.