Алгоритм с перекрытиями для решения системы уравнений мелкой воды на параллельных компьютерах с распределенной памятью

Тип работы:
Реферат
Предмет:
Физико-математические науки


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Уфа: УГАТУ, 2013
Ъыьмт QjrAQnQj
Т. 17, № 5 (58). С. 252−259
УДК 004. 65
Алгоритм с перекрытиями для решения системы уравнений мелкой воды
на параллельных компьютерах с распределенной памятью
1 2 В. В. Калмыков, Р. А. Ибраев
1 vvk88@mail. ru, 2 ibrayev@mail. ru
1 ФГБОУ ВПО «Московский государственный университет имени М. В. Ломоносова» (МГУ) 1,2 ФГБОН «Институт океанологии им. П. П. Ширшова Российской академии наук» (ИО РАН) 2 ФГБОН «Институт вычислительной математики Российской академии наук» (ИВМ РАН)
2 ФГБУ «Гидрометцентр России» 2 ФГБОУ ВПО «Московский физико-технический институт (государственный университет)» (МФТИ)
Поступила в редакцию 01. 09. 2013
Аннотация. Предложен и протестирован программный алгоритм ускорения счета системы уравнений мелкой воды на параллельных компьютерах с распределенной памятью. Алгоритм базируется на оптимизации объема вычислений, межпроцессорных обменов и количества пересылаемой информации, которая позволяет значительно улучшить масштабируемость вычислительного кода. Проведенные тесты показывают, что алгоритм с перекрытиями дает существенные преимущества при счете на достаточно большом (для данных размеров задачи) числе ядер, когда на ускорение сильное влияние начинают оказывать коммуникационные задержки. Алгоритм реализован в рамках работы одного из блоков параллельной вихреразрешающей модели Мирового океана. Статья рекомендована к публикации программным комитетом Международной суперкомпьютерной конференции & quot-Научный сервис в сети Интернет: экзафлопсное будущее& quot-.
Ключевые слова: уравнения мелкой воды- явные схемы- алгоритм с перекрытиями- массивно-параллельные приложения- MPI.
ВВЕДЕНИЕ
Появление петафлопных и терафлопных компьютеров открыло беспрецедентные возможности для решения сложных, многокомпонентных задач с высоким разрешением на больших пространственных масштабах.
В частности, в исследованиях межгодовых и климатических изменений состояния Мирового океана стало возможным построение вихрераз-решающих глобальных моделей с шагом 5−10 км. В опубликованных недавно работах по исследованию глобального океана [1] и систем оперативной океанологии [2] с применением
Работа поддержана грантами РФФИ 12−05−31 317-мол_а, 12−05−1 155-а, 13−05−1 141-а, стипендией Президента Р Ф для аспирантов № 136 (28/02/2013), проектом Программы фундаментальных исследований Президиума РАН № 23, грантом Министерства образования и науки по договорам №№ 8344 (17/08/2012) и 8328.
моделей с горизонтальными шагами 1/10 градуса и менее показана возможность реалистичного воспроизведения широкого спектра пространственно-временной изменчивости океана. В то же время для исследований климата в основном используются модели Мирового океана на порядок более грубым разрешением, равным 0,5−1° [3]. Поэтому актуальной является задача создания вычислительно эффективных моделей, способных вести на вихреразрешающих сетках исследования климата Мирового океана, предполагающие интегрирование системы на 100−1000 лет.
В данной работе мы рассмотрим применение алгоритма с перекрытиями для решения системы уравнений мелкой воды, которая является частью многих трехмерных моделей динамики Мирового океана, в том числе и модели, разрабатываемой в Институте вычислительной математики РАН и Институте океанологии им П. П. Ширшова РАН [4, 5]. Система трехмерных
уравнений крупномасштабной динамики океана описывает спектр движений с большим диапазоном характерных скоростей: скорости течений и бароклинных гравитационных волн составляют 1−3 м/с- скорости баротропных гравитационных волн составляют 30−200 м/с. Применение явного метода аппроксимации нестационарных уравнений приводит к необходимости удовлетворить условию Куранта для всего диапазона описываемых системой уравнений волн, включая баротропные гравитационные волны. Наиболее значимые процессы (на настоящем уровне наших знаний) для климатических явлений в океане определяются течениями и бароклинны-ми волнами. Способом обойти жесткое ограничение на шаги по времени является разделение решения системы уравнений динамики океана на бароклинные, сравнительно медленные движения, и баротропные, быстрые движения [6]. Система уравнений для баротропных движений получается путем интегрирования исходной трехмерной системы по вертикали, в результате мы получаем систему уравнений мелкой воды, которую решаем с шагом по времени, меньшим на один-два порядка по сравнению с шагом по времени для решения трехмерных уравнений для бароклинных движений.
Уменьшение шага по времени соответствует увеличению числа итераций цикла решения системы уравнений мелкой воды, что, за счет необходимости межпроцессорных обменов на каждой итерации, ведет к тому, что простейшая явная схема решения уравнения мелкой воды становится узким местом программы с точки зрения параллельной реализации.
Данная проблема отмечена, например, в работе [7]. Авторы использовали одномерное разбиение области и 3 типа обмениваемых данных между ядрами-соседями, что соответствует 6 сообщениям за один шаг цикла. Они получили очень низкое ускорение и связали результаты с большим числом межпроцессорных обменов (21 600 сообщений за 3600 шагов по времени).
В следующем эксперименте авторы попытались решить проблему коммуникаций за счет перекрытия вычислений и обменов. Они рассчитывали приграничные ячейки, асинхронно отправляли их, и затем досчитывали внутреннюю область. В конце шага проверяли, что все обмены завершились, и выполняли следующую итерацию цикла. Данный метод также не принес существенно лучших результатов ускорения, к тому же усложнил код.
Другой метод был предложен в работе [8]. Авторы предлагают использовать параллельный метод коллокаций и тестируют его на примере решения системы уравнений мелкой воды. Однако их метод, хотя и дает суперлинейное ускорение для небольшого (меньшего 8) числа процессоров, авторы отмечают, что при дальнейшем увеличении процессорной решетки затраты на коммуникации будут быстро расти. Уже на 16 ядрах ускорение падает в 4 раза по сравнению с результатами на 8 ядрах.
Важно отметить, что процедура решения системы уравнений мелкой воды является частью трехмерной модели Мирового океана. Используемые в процедуре массивы значений различных функций подчиняются двумерной декомпозиции области, используемой во всей модели для всех глобальных массивов. Поэтому использование неявного метода решения или сложного метода декомпозиции области (пример такого метода в работе [9]) приведет к нетривиальным обменам данными между вычислительными ядрами, которые затронут еще и массивы внешних для процедуры решения системы уравнений мелкой воды модельных величин. Это приведет к дополнительным обменам и существенному усложнению идеи естественного параллелизма.
В данной работе мы рассматриваем применение алгоритма с перекрытиями для решения системы уравнений мелкой воды на параллельных компьютерах с распределенной памятью. Алгоритм базируется на оптимизации вычислений, пересылок и объема пересылаемой информации.
ПОСТАНОВКА ЗАДАЧИ
Система уравнений мелкой воды выводится из трехмерной системы уравнений крупномасштабной динамики океана путем интегрирования уравнений по вертикали [10]:
и — /V = -яи,
дх
V+/и = - я'-,
ду
дп+ди+К=^
д/ дх ду
Здесь и, V — проинтегрированные по вертикали (баротропные) потоки, 1 — уровень океана, f — сила Кориолиса, g — ускорение свободного падения, Н — глубина океана, яи, Я'-, Я1 — члены источника.
254
СУПЕРКОМПЬЮТЕРНЫЕ ТЕХНОЛОГИИ
РАЗНОСТНАЯ СХЕМА
Для решения системы применим явную схему аппроксимации по времени:
Лр+1 -1 — -
1-^ + (8Яиу)р + (8 Vх) р = Я1,
Up+1 — Up
Vp+1 — Vp
— fVp =- gH (8 xn& quot-)p+1 + RU,
+ fUp =- gH (8 y Л) p+1 + RV,
где р — целочисленный момент времени для интегрирования баротропной системы с временным шагом т- 8 — оператор разностного дифференцирования. Разрешим уравнения относительно 1р+1, ир+1, Vр+1:
лр+1 = -т (8 иу + ^ Vх) р + тЯ1 + лр,
ир+1 = -т^Я (8хлу)р+1 + тЯи + ир + т/Ур, Vp+1 = -т^Я (8Д)р+1 + тЯV + ^ - т/ир.
Решение ищется с шагом т «А/ на временном
интервале 2А/: ^/- / + 2А/, где / - момент
времени на временной сетке решения 3-мерной модели океана. Количество шагов интегрирования равно 2 • р1, где р1 = А/ / т.
Начальные условия:
ир=0 = и1, vp=0 = V1, лр=0 = с1.
ПРЯМОЙ АЛГОРИТМ
Прямой алгоритм вычисления решения на параллельных компьютерах с распределенной памятью состоит в последовательном расчете по формулам и обмене данными с соседними вычислительными ядрами.
Одномерный по пространству вариант пространственно-временной сетки изображен на рис. 1. Шаги по времени отсчитываются по вертикальной оси, по горизонтали отложены узлы одномерной по пространству сетки. Пусть расчетная область в соответствии с декомпозицией области состоит из К подобластей. Рассмотрим
к-ю подобласть, к = 1, К, соответствующую к-му вычислительному ядру. Предположим, что размеры подобластей одинаковы и равны п. Для примера возьмем п = 5. В соответствии с прямым алгоритмом решение в черных узлах рассчитывается на соседних (к-1, к+1) ядрах и пересылаются на к-е ядро с помощью межпро-
цессорных обменов, решение в серых узлах рассчитываются на к-м ядре. На рисунке изображены первые 6 шагов алгоритма. Здесь используется естественная схема счета — 1 шаг по времени /1 межпроцессорный обмен:
• Шаг 1. Момент времени р. Получение с помощью межпроцессорного обмена значений массивов в приграничных ячейках.
• Шаг 2. Интегрирование системы уравнений на один шаг по времени, явное вычисление неизвестных ир1, Vp+1,lp+1 по формулам для п точек подобласти.



Г№
Г К)
Г M
pt-3
H • ¦ «» t
pH
p


Рис. 1. Схема работы прямого алгоритма на примере одномерной сетки
Тестовые расчеты по прямому алгоритму проводились для массивов следующих размеров: 2880×1440 и 4320×2160 (или 4Дх106 и 9,3×106 точек), что соответствует сеткам в ши-ротно-долготной системе координат с разрешением 1/8 и 1/12 градуса для Мирового океана. Расчет велся на 57 600 и 86 400 шагов соответственно. Разбиение на подобласти двумерное равномерное.
Расчеты проводились на суперкомпьютере МВС-100К, входящем в состав Межведомственного суперкомпьютерного центра РАН (www. jscc. ru).
Вычислительные мощности суперкомпьютера состоят из 1460 вычислительных модулей (11 680 процессорных ядер). Базовый вычислительный модуль МВС-100К представляет собой сервер HP Proliant, содержащий два четырех-ядерных микропроцессора Intel Xeon, работающих на частоте 3 ГГц на 8 Гб оперативной памяти. Вычислительные модули связаны между собой высокоскоростной коммуникационной сетью Infiniband DDR, транспортной и управляющей сетями Gigabit Ethernet.
х
т
х
64 32 | 16 I 8
о
— - - - линейное ¦ ¦ ¦ сетка 2880×1440
^ -
¦ ¦ ¦ с етка 4320×2160 — & quot- _



64
128
256
512 1024
число ядер
2048
4096
8192
Рис. 2. Масштабируемость прямого алгоритма решения системы уравнений мелкой воды
для двух размеров сеток
График ускорения работы прямого алгоритма относительно числа вычислительных ядер для двух сеток приведен на рис. 2. Число вычислительных ядер для первой сетки равнялось 128, 288, 512, 800, 1800, 2592- для второй — 288, 512, 800, 1800, 2592, 4608.
Отметим следующие характеристики масштабируемости прямого алгоритма. Во-первых, значительный рост ускорения на 288, 512 и 512, 800 вычислительных ядрах для соответствующих размеров сеток. Дело в том, что ускорение отсчитывается от минимального числа вычислительных ядер (128 и 288), когда массивы данных еще не полностью используют возможности кэш-памяти. По мере роста числа ядер размеры подобластей уменьшаются, что ведет к более эффективному использованию кэшпамяти и появлению суперлинейного ускорения. Во-вторых, падение ускорения при увеличении числа вычислительных ядер, начиная с 512 и 1800 соответственно. Поскольку размеры подобластей, а значит и объемы вычислений, продолжают уменьшаться, увеличение времени решения задачи происходит из-за увеличения коммуникационных задержек.
Решение системы уравнений мелкой воды является частью решения трехмерной модели динамики океана. При этом линейная масштабируемость модели океана за исключением системы уравнений мелкой воды сохраняется при количестве вычислительных ядер значительно больших, чем для системы уравнений мелкой воды. Поэтому естественным образом встала задача оптимизации вычислений и пересылок при решении системы уравнений мелкой воды так, чтобы сохранить масштабируемость всего кода модели динамики океана. Очевидный подход состоит в том, чтобы уменьшить количество
пересылок, не изменяя порядка вычислений и сохраняя двумерную декомпозицию расчетной области.
АЛГОРИТМ С ПЕРЕКРЫТИЯМИ
Идея алгоритма с перекрытиями хорошо иллюстрируется геометрически. Если рассмотреть прямую схему решения на к-м вычислительном ядре, то она будет иметь вид столба, составленного из усеченных пирамид, высотой в 1 шаг по времени. Задача состоит в том, чтобы найти решение в п серых точках на некоторый момент времени. Теперь увеличим высоту каждой усеченной пирамиды, сохранив ширину верхней грани в п узлов и соответственно увеличив нижнее основание.
X
Рис. 3. Схема работы алгоритма с перекрытиями на примере одномерной сетки
Введем числовой параметр д, обозначающий количество ячеек, на которое будет увеличена одномерная область в каждом направлении.
-- _1_
-
етка 4320×2160 / & gt- /С — '- «- '-


ШГ^ -
64 128 256 512 1024 2048 4096 8192
число ядер
Рис. 4. Масштабируемость алгоритма с перекрытиями решения системы уравнений мелкой воды
для двух размеров сеток
Заменим прямой алгоритм решения, а именно: 1 шаг по времени / 1 межпроцессорный обмен на схему д шагов по времени / 1 межпроцессорный обмен. В этом случае решаются те же уравнения, но на расширенной на д ячеек области, и с каждым шагом эта область сужается на одну ячейку по обоим направлениям.
На рис. 3 приведен пример работы нового алгоритма. Решение в черных узлах по-прежнему рассчитывается на соседних (к — 1, к + 1) ядрах и пересылаются на к-е ядро с помощью (теперь расширенных) межпроцессорных обменов, решение в серых узлах рассчитывается на к-м ядре. На рисунке сделано 2 шага алгоритма, то есть опять рассчитаны 6 шагов временного цикла. Алгоритм сейчас выглядит так:
• Шаг 1. Момент времени р. Получение с помощью межпроцессорного обмена значений массивов в д (для примера д = 3) приграничных ячейках.
• Шаг 2. Интегрирование системы уравнений на один шаг по времени, явное вычисление неизвестных ир+1, Vр+1,цр+1 по формулам для п + 2 • q — 2 -1 точек подобласти.
• Шаг 1+2. Интегрирование системы уравнений на один шаг по времени, явное вычисление
неизвестных ир 2, Vр+2, тР 2 по формулам для
п + 2 • q — 2 • 2 точек подобласти.
• Шаг 1+q. Интегрирование системы уравнений на один шаг по времени, явное вычисление
неизвестных ир+С1, Vр+& lt-1, тР+& lt-1 по формулам для
п + 2 • q — 2 • q точек подобласти.
В результате через д шагов область, в которой рассчитано решение, сузится до размера
подобласти для k-го вычислительного ядра. Далее отрабатывает обменная процедура, вычислительное ядро опять получает расширенную область и цикл повторяется. То есть, увеличивая расчетную область на q точек в каждом направлении, мы уменьшаем число обменов в q раз. Несмотря на то, что при межпроцессорном обмене объем пересылаемой информации увеличивается в q раз, пересылка 1 раз 2q чисел значительно экономичнее, чем q раз по 2 числа. Очевидно, прямой алгоритм можно рассматривать как алгоритм с перекрытиями с параметром q, равным 1.
Алгоритм прямо переносится на двумерный случай. Если размер подобласти, соответствующей k-му вычислительному ядру, равен П х П, то межпроцессорные обмены должны обеспечить заполнение массива размером (П + 2 • q) х (n2 + 2 • q) на временном шаге p.
Процедура межпроцессорных обменов в двумерном случае будет несколько сложнее. Программа решения системы уравнений на параллельном компьютере с распределенной памятью по быстрому алгоритму будет выглядеть так:
do p=1,pl/q
call send_receive (n+2q data) do pq=q, 1,-1
calculate u, v, eta
end do
end do
Алгоритм с перекрытиями тестировался с теми же параметрами задачи. Параметр расширения подобласти q брался равным 10. Ускорение времени решения системы уравнений мелкой воды алгоритмом c перекрытиями относительно времени решения системы прямым алго-
ритмом на 128 и 288 вычислительных ядрах представлено на рис. 4. Для сравнения более тонкими линиями обозначены результаты ускорения начальной версии, приведенные на рис. 2.
По графику можно отследить несколько тенденций. Во-первых, прямой алгоритм дает лучшие результаты на небольшом числе процессоров. Это логично, так как алгоритм с перекрытиями использует массивы, расширенные на 10 ячеек в каждом направлении. Для небольшого числа процессоров, когда коммуникационные задержки еще невелики, это ведет к увеличению расчетной области и соответствующему росту времени вычислений. По этой же причине ускорение отсчитывается от времени работы начальной версии, чтобы искусственно не завышать показатели.
Поэтому для максимального ускорения на всех размерах процессорных решеток можно до некоторого числа процессоров использовать значение д, равное 1, а далее увеличивать д. Хотя нас больше интересуют результаты в правой части графика, так как модель Мирового океана с хорошим разрешением требует значительных вычислительных мощностей.
Во-вторых, ясно, что при минимальном числе процессоров, от которых отсчитывается ускорение, данные не полностью используют возможности кэш-памяти. Вследствие этого дальнейшее уменьшение областей при отсутствии коммуникационных проблем ведет к значительному росту ускорения.
ВЫВОДЫ
В работе предложен и протестирован программный алгоритм ускорения времени счета системы уравнений мелкой воды на параллельных компьютерах с распределенной памятью. Результаты ускорения представляются удовлетворительными. Метод был введен в разрабатываемую нами модель Мирового океана, где также показал хорошие результаты.
Тесты показывают, что предложенный подход позволяет существенно ускорить решение задачи по сравнению с прямым алгоритмом. По всей вероятности, близкая к линейной масштабируемость кода может быть продлена как минимум до 10−20 тыс. вычислительных ядер. Мы планируем проверить это в ближайшем будущем для более мелких пространственных сеток.
Применение алгоритма с перекрытиями обосновано лишь в функциях, по своей структуре перенасыщенных обменными процедурами. То есть замена всех явных схем в программе
описанным образом приведет к неоправданному усложнению кода и вряд ли повысит эффективность, так как в крупных моделях между функциями межпроцессорной коммуникации содержится достаточное количество локальных вычислений и обмены в этом смысле довольно редки. А вот для функций вида шаг-обмен, где под шагом подразумевается вычисление нескольких потоков и операторов, метод может дать существенные результаты. Особенно при использовании большого числа процессоров, что становится необходимостью при разработке современных глобальных моделей высокого пространственного разрешения.
Алгоритм с перекрытиями представляет интерес и в дальнейшем развитии модели Мирового океана, связанной с созданием глобальной модели Земной системы [11]. В одном из заключительных пунктов конференции по созданию глобальных систем Coupling Technologies for Earth System Modeling: Today and Tomorrow [12] были отмечены некоторые условия, диктуемые наступающей экзафлопной эрой, а именно: ограничение памяти одного процессорного элемента, неоднородность вычислительных ресурсов (разделение их на классические CPU и графические GPU), повышение стоимости межпроцессорных обменов вследствие значительного роста общего числа ядер при сохранении текущей скорости интерконнекта. В связи с этим было предложено ограничить внутримо-дельные обмены как раз за счет перекрывающих избыточных вычислений, что в условиях большого числа ядер и медленной сети позволяет избежать падения ускорения.
СПИСОК ЛИТЕРАТУРЫ
1. Maltrud M. E., McClean J. L. An eddy resolving global 1/10° ocean simulation // Ocean Modelling. 2005. Vol. 8. P. 31−54.
2. Dombrowsky E. L., Bertino G. B., Brassington E. P., Davidson Ch. F., Hurlburt H. E., Kamachi M., Lee T., Martin M. J., Mei S., Tonani M. GODAE Systems in operation // Oceanography. 2009. Vol. 22, No. 3. P. 80−95.
3. Володин Е. М., Дианский Н. А. Моделирование изменений климата в XX-XXII столетиях с помощью совместной модели общей циркуляции атмосферы и океана // Изв. РАН, ФАО. 2006. Т. 42, № 3. С. 291−306.
4. Ибраев Р. А., Калмыков В. В., Ушаков К. В. Мировой океан, изменения климата и суперкомпьютерное моделирование // Суперкомпьютерные технологии в науке, образовании и промышленности: сб. науч. ст. / Под ред. акад. В. А. Садовничего, акад. Г. И. Савина, чл. -кор. РАН Вл. В. Воеводина. М.: Изд-во Моск. ун-та, 2010. С. 49−54.
5. Ибраев Р. А., Калмыков В. В., Ушаков К. В., Хабе-ев Р. Н. Вихреразрешающая 1/10° модель Мирового океа-
258
СУПЕРКОМПЬЮТЕРНЫЕ ТЕХНОЛОГИИ
на // Экологическая безопасность прибрежной и шельфо-вой зон и комплексное использование ресурсов шельфа: сб. науч. тр. Севастополь: Изд-во МГИ НАНУ, 2011. Т. 25, № 2. С. 30−44.
6. Ибраев Р. А. Математическое моделирование термогидродинамических процессов в Каспийском море. М.: ГЕОС, 2008.
7. Pau J. C., Sanders B. F. Performance of parallel implementations of an explicit finite-volume shallow-water model // ASCE J. Computing in Civil Engineering. 2006. Vol. 20, No. 2. P. 99−110.
8. Tsai Y. M., Kuo H. C., Chang Y. C. A new parallel domain-decomposed Chebyshev collocation method for atmospheric and oceanic modeling // Terrestrial, Atmospheric and Oceanic Sciences. 2012. Vol. 23. P. 439−450.
9. Chefter J. G., Chu C. K., Keyes D. E. Domain decomposition for the shallow water equations // Comtemporary Mathematics: Proc. 7th Int. Conf. on Domain Decompostion Methods in Sci. aтd Eng. 1994. P. 485−490.
10. Killworth P. D., Stainforth D., Webb D. J., Paterson S. The development of a free surface Bryan-Cox-Semtner model // J. Phys. Oceanogr. 1991. Vol. 21. P. 1333−1348.
11. Толстых М. А., Ибраев Р. А., Володин Е. М., Ушаков К. В., Калмыков В. В., Шляева А. В., Мизяк В. Г., Хабеев Р. Н. Модели глобальной атмосферы и Мирового океана: алгоритмы и суперкомпьютерные технологии. М.: МГУ, 2013. 144 с.
12. Valcke S., Balaji V., Craig A., DeLuca C., Dunlap, R., Ford R. W., Jacob R., Larson J., O'-Kuinghttons R., Riley G. D., Vertenstein M. Coupling technologies for Earth System modelling // Geosci. Model Dev. 2012. Vol. 5. P. 1589−1596.
ОБ АВТОРАХ
КАЛМЫКОВ Владимир Владимирович, асп. каф. выч. технологий и моделирования фак-та выч. математики и кибернетики. Дипл. математик, системный программист (ВМК МГУ, 2010). Готовит дис. о прогр. компл. совместн. моделирования системы «океан-атмосфера-лед-почва».
ИБРАЕВ Рашит Ахметзиевич, гл. науч. сотр. Ин-та выч. математики РАН. Дипл. инж. -физик (МФТИ, 1982). Д-р физ. -мат. наук (ИВМ РАН, 2002). Чл. -корр. РАН (2008). Иссл. в обл. физики океана.
METADATA
Title: The overlapping algorithm for solving shallow water equations on massively-parallel architectures with distributed memory. Authors: V. V. Kalmykov and R. A. Ibrayev. Affiliation:
Moscow State University of Lomonosov (MSU), Russia- P. P. Shirshov Institute of Oceanology Russian Academy of
Sciences (IO RAS), Russia- Institute of Numerical Mathematics Russian Academy of Sciences (INM RAS), Russia- Hydrometcentre of Russia-
Moscow Institute of Physics and Technology (MIPT), Russia. Email: vvk88@mail. ru, ibrayev@mail. ru Language: Russian.
Source: Vestnik UGATU (scientific journal of Ufa State Aviation Technical University), vol. 17, no. 5 (58), pp. 252−259, 2013. ISSN 2225−2789 (Online), ISSN 1992−6502 (Print).
Abstract: The paper proposes and tests algorithm for acceleration shallow water equations on parallel computers with distributed memory. The algorithm is based on the optimization of computations, interprocessor communications and the amount of transferred information, which can significantly improve the scalability of computer code. The tests show that the overlapping algorithm provides serious advantages for large communicator sizes of the model when the acceleration strongly depends of communications delays. Algorithm is realized as one of the blocks of parallel eddy-resolving World Ocean Model. The paper was recommended for publication by the program committee of the International Supercomputer Conference & quot-Scientific service on the Internet: exafplops future. "-
Key words: shallow water equations- explicit schemes- overlapping algorithm- massively-parallel applications- MPI.
References (English transliteration):
1. M. E. Maltrud and J. L. McClean, & quot-An eddy resolving global 1/10° ocean simulation,& quot- Ocean Modelling, vol. 8, pp. 3154, 2005.
2. E. L. Dombrowsky, G. B. Bertino, E. P. Brassington, C. F. Davidson, H. E. Hurlburt, M. Kamachi, T. Lee, M. J. Martin, S. Mei, and M. Tonani, & quot-GODAE Systems in operation,& quot- Oceanography, vol. 22, no, 3, pp. 80−95, 2009.
3. E. M. Volodin and N. A. Diansky, & quot-Climate change modelling in the XX-XXII centuries using coupled model of general circulation of the atmosphere and ocean,& quot- (in Russian), Math. Russian Academy of Sciences, vol. 42, no. 3, pp. 291−306, 2006.
4. R. A. Ibrayev, V. V. Kalmykov, and K. V. Ushakov, & quot-World Ocean, climate change and supercomputer modeling,& quot- in Supercomputer technologies in science, education and industry, (in Russian). Moscow: Publishing House of Moscow University, pp. 49−54, 2010.
5. R. A. Ibrayev, V. V. Kalmykov, K. V. Ushakov, and R. N. Khabeev, & quot-Eddy-resolving 1/10 ° World Ocean model,& quot- (in Russian), Ecological safety of coastal and shelf areas and comprehensive utilization of resources, vol. 25, no. 2, pp. 30−44, 2011.
6. R. A. Ibrayev, Mathematical Modeling of Thermo hydrody-namic Processes in the Caspian Sea. Moscow: GEOS, 2008.
7. J. C. Pau and B. F. Sanders, & quot-Performance of parallel implementations of an explicit finite-volume shallow-water model,& quot- ASCE J. Computing in Civil Engineering, vol. 20, no. 2, pp. 99−110, 2006.
8. Y. M. Tsai, H.C. Kuo, and Y. C. Chang, & quot-A new parallel domain-decomposed Chebyshev collocation method for atmospheric and oceanic modeling,& quot- Terrestrial, Atmospheric and Oceanic Sciences, vol. 23, pp. 439−450, 2012.
9. J. G. Chefter, C. K. Chu, and D. E. Keyes, & quot-Domain decomposition for the shallow water equations,& quot- in Comtemporary Mathematics: Proc. 7th Int. Conf. Domain Decompostion Methods in Sci. adn Eng. pp. 485−490, 1994.
10. P. D. Killworth, D. Stainforth, D. J. Webb, and S. Paterson, & quot-The development of a free surface Bryan-Cox-Semtner model,& quot- J. Phys. Oceanogr., vol. 21, pp. 1333−1348, 1991.
11. M. A. Tolstykh, R. A. Ibrayev, E. M. Volodin, K. V. Ushakov, V. V. Kalmykov, A. V. Shlyaeva, V. G. Mizyak, and R. N. Khabeev, Global Atmosphere and World Ocean Models: Algorithms and Supercomputing Technologies, manual (Series & quot-Supercomputer Education& quot-). Moscow: Moscow University Publishing House, 2013.
12. S. Valcke, V. Balaji, A. Craig, C. DeLuca, R. Dunlap, R. W. Ford, R. Jacob, J. Larson, R. O'-Kuinghttons, G. D. Ri-ley, and M. Vertenstein, & quot-Coupling technologies for Earth System Modelling,& quot- Geosci. Model Dev., vol. 5, pp. 15 891 596, 2012.
About authors:
KALMYKOV, Vladimir Vladimirovich, Postgrad. Student, Dept. Computational Mathematics and Cybernetics of Lomonosov Moscow State University. Master thesis: & quot-Development of a parallel hydrodynamic World Ocean model& quot-. Prep. ph. d thesis: & quot-Framework for ocean-ice-atmosphere-land coupled model on massively-parallel architectures& quot-.
IBRAYEV, Rashit Akhmetzievich, Principal Scientific Researcher, Institute of Numerical Mathematics Russian Academy of Sciences (INM RAS). Dr. Sc. in Physics and Mathematics, thesis & quot-Mathematical Modeling of Thermodynamics of the Caspian Sea& quot- (INM RAS, 2002). Corresponding Member of the Russian Academy of Sciences, 2008.

ПоказатьСвернуть
Заполнить форму текущей работой