Распределенный алгоритм расчета динамики старта летательного аппарата в условиях взаимодействия со средой

Тип работы:
Реферат
Предмет:
Механика


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Наука к Образование
МГТУ им. Н.Э. Баумана
Сетевое научное издание
ISSN 1994−0408 УДК 533. 6:51. 001. 57
Распределенный алгоритм расчета динамики старта летательного аппарата в условиях взаимодействия со средой
Щеглов Г. А. 1'-*, Шилов А. Ю. 2, Юнак Е. В.2 Vorg^energomeiiju
1МГТУ им. Н. Э. Баумана, Москва, Россия 2ВПК & quot-НПО машиностроения& quot-, Реутов, Россия
Представлено описание распределенного алгоритма и структуры реализующего его программного комплекса в котором программа расчета динамики старта летательного аппарата в условиях взаимодействия с потоком среды дополняется программой для определения нестационарных гидродинамических нагрузок методом вихревых элементов. Особенностью алгоритма является объединение в единую систему локальной программы и параллельной программы, использующей технологию MPI. Проанализировано ускорение, достигаемое при параллельных вычислениях на различном числе ядер, и дана оценка степени распараллеливания различных операций. Показано, что разработанный алгоритм может быть эффективно использован для решения задач на небольшом числе ядер, например на персональном компьютере с одним или двумя четырехядерными процессорами.
Ключевые слова: алгоритм, метод вихревых элементов, несжимаемая среда, завихренность, вортон, гидроупругость, летательный аппарат, распределенные вычисления, параллельные вычисления
Введение
Разработка иерархии математических моделей для расчета динамики старта летательного аппарата (ЛА) с пусковой установки (ПУ) является актуальной задачей при проектировании новых образцов аэрокосмической техники [1]. Для уточнения нестационарных нагрузок на ЛА и ПУ, возникающих в процессе старта при взаимодействии со средой необходимо рассматривать комплексную задачу динамики системы «ЛА-ПУ-поток среды» [2]. В случае, когда допустимо использование допущения о несжимаемости среды эта задача приводится к сопряженной задаче гидроупругости.
Для расчета гидродинамических нагрузок, как правило, используют гипотезу о потенциальном характере течения. Такие гидродинамические эффекты, как отрыв потока и вихреобразование учитываются при этом неполно, без учета обратной связи между динамикой движения завихренного потока среды и динамикой элементов конструкций. Один из возможных подходов к совершенствованию математических моделей связан с
Наука и Образование. МГТУ им. Н. Э. Баумана. Электрон. журн. 2015. № 02. С. 58−71.
Б01: 10. 7463/0215. 756 606
Представлена в редакцию: 24. 12. 2014
© МГТУ им. Н.Э. Баумана
использованием бессеточного метода вихревых элементов [3]. Важной задачей внедрения данного метода расчета нестационарных гидродинамических нагрузок является его встраивание в существующие пакеты прикладных программ, используемые на предприятиях отрасли. Новые комплексы программ должны обладать высокой эффективностью для проведения за ограниченное время серий расчетов с целью выбора наилучшего технического решения.
Целью настоящей работы является разработка и анализ эффективности распределенного алгоритма и реализующего его программного комплекса в котором расчет динамики взаимодействия ЛА-ПУ при старте и расчет нестационарных гидродинамических нагрузок разделяется между различными программами, одна из которых является однопоточной, а другая использует распараллеливание вычислений с распределенной памятью.
1. Постановка задачи и метод решения
Рассматривается математическая модель старта ЛА с ПУ в подвижную несжимаемую среду при сплошном режиме обтекания. Расчетная схема представлена на рис. 1. В безграничной области расположено содержащее ПУ обтекаемое тело В, с которым связана неподвижная система координат ОХ1Х, как показано на рис. 1. На бесконечном удалении от тела поток имеет плотность рх, давление рх, скорость.
Рис. 1. Расчетная схема
В момент времени !0 = 0 из основания начинает выдвигаться тело вращения Ь,
моделирующее ЛА. С телом Ъ связана подвижная система координат О'-5 иV как показано на рис. 1. Геометрия тела Ъ определяется длиной Ь и переменным диаметром Б (5), где 0 & lt- ^ & lt- ь — координата вдоль оси симметрии. Подвижная система координат движется прямолинейно, ось О '-5 совпадает с осью О У. Движение происходит с заданной скоростью УЬ (!), расстояние ОО задается координатой УЬ (!). Рассматривается вихревое пространственное обтекание поверхности объединенного тела к = в ^ ь. Исследуется переходный режим, протекающий в интервале времени !0 & lt-! & lt- !К, где в момент времени! К, тело Ъ отделяется от основания В.
Динамика системы ЛА-ПУ описывается упруго-массовой моделью (УММ), состоящей из упругих балок с переменными по длине жесткостными и массовыми характеристиками, сосредоточенных масс и системы связей. Пример УММ показан на рис. 2, где первая балка (узлы № 1−20) моделирует податливость конструкции ЛА в продольной плоскости ОХ У. Балка кинематически связана с осью тела Ъ так, что прогибы балки в плоскости ОХУ (положительные прогибы — в направлении по потоку) приводят к изменению формы тела Ъ в соответствии с гипотезой плоских сечений. Вторая балка (узлы № 21−33), закрепленная на четырех опорах моделирует податливость конструкции ПУ. Балки связаны между собой как линейными по углу и перемещению связями, так и нелинейными по перемещению и скорости связями. В расчете может учитываться конструкционное демпфирование. Каждая балка разбивается на участки, моделируемые конечными элементами с постоянной погонной массой, изгибной жесткостью, жесткостью на сдвиг. Элементы конструкции, удерживающие ЛА на ПУ, представляются шестью нелинейными связями между балкой ЛА и балкой ПУ (учитываются зазоры в опорах и изменение жесткости опор по мере смещения ЛА относительно ПУ).
Рис. 2. Упруго-массовая модель системы ЛА-ПУ
Допущение о несжимаемости среды и условие затухания возмущений на бесконечном удалении от обтекаемой поверхности позволяет записать связанную задачу гидроупругости относительно вектора обобщенных координат УММ {#}, имеющего
размерность Ы, и поля завихренности среды 0. (г:
[М ]{д}+[С ]{д} = {д (д, д, 0}+ (О, X))} (1)
+ (V7 (О) • у) п = (О • у) Г (О) + УУ 2 О, (2)
с граничными условиями на обтекаемой поверхности К
V (О) = Ук (д, д, х) (3)
и начальными условиями
{д (хс)}={до}, {д (Хо)}={до}, ??(^Хо) = О0. (4)
В системе уравнений (1) [М], [С] - матрицы масс и жесткости, {& lt-2(д, д, х)} - вектор обобщенных нестационарных позиционных сил от реакций связей, {эс (О, х))} - вектор обобщенных гидродинамических нагрузок. В уравнении (2) г — радиус-вектор точки в ОХУ1, V (О) — поле скорости, вычисляемое по закону Био-Савара, V- (?, ?, х) — скорость точки обтекаемой поверхности, заданной в ОХУ2 радиус-вектором тк = тк (д, д, х).
Вектор обобщенных гидродинамических нагрузок {@с} описывает воздействие на УММ нестационарного распределения давления среды на части поверхности Кь = Ь В, выдвинутой в поток. Этот вектор определяется по вектору нагрузок приложенных к точкам {5р} продольной оси ЛА. Вектор определяется интегрированием
распределения давления по участкам деформированной поверхности КЬ.
Система (1) решается численным методом высокого порядка точности с постоянным шагом Дг. При этом на шаге интегрирования вектор {@с} считается постоянным.
При решении (2) используется подход Прандтля: в области течения среда считается идеальной
+ -У)Й = (п-У)Г, (5)
а влияние вязкости рассматривается только как причина генерации на обтекаемой поверхности К вихревого слоя рк (гк). Граничное условие (3) удовлетворяется введением потока завихренности [4]: вся завихренность, рожденная в вихревом слое, поступает в область течения
а v г
= У- (Тк)|~, (6)
г=гк

Такой подход позволяет использовать для определения ук условие непротекания [5]
(г (г) + V (О))пк = Гк (д, д, х) пк (7)
где пк внешняя нормаль в точке тк.
Для численного решения (5−7) применяется метод вихревых элементов. Поле завихренности представляется в виде суперпозиции Nv элементарных полей, называемых вихревыми элементами (ВЭ)
О (г, х О о, (г7, 4 (Х), ь (х), Г (Х)) (8)
г=1
Каждый В Э характеризуется тремя параметрами: маркером 7Ы ('-), движущимся по траектории жидкой частицы, вектором к, ('-), и интенсивностью Гг ('-). В качестве вихревого элемента используется симметричный вортон-отрезок для которого найдены аналитические выражения для скорости у (т, г0, ('-), к ('-), Г (!)) и ее градиента Vу{т, г0, (!), к, (!), Г (!)) [6]. Для исключения неограниченного роста скоростей и их производных при приближении к оси ВЭ, вводится радиус ВЭ — трубки, внутри которой индуцированные скорости и их производные убывают по линейному закону до нуля на оси ВЭ. Вводится вектор состояния поля завихренности {0(0}, размерностью 7 Ыу, компонентами которого являются параметры ВЭ.
С использованием (8) уравнение в частных производных (5) сводится к системе
обыкновенных дифференциальных уравнений
{0} = Л ({0}),{0(0)} = {О0}, (9)
где — вектор начального состояния завихренности — оператор, описывающий
уравнение сохранения импульса в лагранжевой постановке: движение маркеров ВЭ по траекториям жидких частиц, удлинение и поворот векторов ВЭ, постоянство интенсивности ВЭ
йг , — йк, / - - dГi
=^,'-). й-=Ы))к" ^=0,0=).
Система (9) решается численно методом первого порядка точности с шагом Д На каждом шаге интегрирования условие непротекания (7) сводится к системе линейных алгебраических уравнений (СЛАУ) в контрольных точках обтекаемой поверхности которая аппроксимируется при помощи плоских панелей
Им = V ({О}, д, д, 0}, (10)
где — матрица нормальных составляющих скосов потока в контрольных точках, -вектор интенсивностей, — вектор разности нормальных составляющих скорости
поверхности и скорости среды и в контрольных точках.
Поток завихренности (6) на шаге интегрирования моделируется при помощи генерации новых ВЭ, параметры которых задаются расчетной схемой из замкнутых вортонных рамок [7]. После решения (10) происходит разделение рамок на ВЭ. При этом на ребрах соседних рамок рождается один, объединенный ВЭ. Размерность системы (9) таким образом, увеличивается на каждом шаге интегрирования
{О'-,-)} = {0(!г-1)} ^ {Ок }, Ыу ('-,) = Ыу (!,_1) + Ык (11)
Для новых уравнений системы (9) начальными условиями служат параметры рожденных ВЭ.
р (-,'-) = рш + Рао
Рост размерности (9) ограничивается введением реструктуризации вихревого следа, при которой близко расположенные ВЭ объединяются.
Давление в контрольных точках рамок определяется при помощи аналога интеграла Коши-Лагранжа
VI _ + ^ (-,?). V- (-)_ 1 В (!) — 2 2 -=1, (12)
где V, (г) — скорость, индуцируемая ,-тым ВЭ /в — интеграл, учитывающий генерацию
ВЭ [8].
2. Описание алгоритма и структуры программного комплекса
Основной целью расчета является анализ динамики системы ЛА-ПУ, то есть решение системы (1) при заданном законе движения. Соответственно, в
предлагаемом алгоритме ведущей является динамическая подсистема, а гидродинамическая подсистема — ведомой, поскольку решение задачи гидродинамики (2,3) требуется только для вычисления нестационарных нагрузок.
Процесс численного решения задачи (1−3) на интервале времени 0 & lt-? & lt- ?к с шагом по времени Д t сводится к выполнению Ыг = ^ / А? шагов вычислительного цикла, содержащего восемь операций:
I. Формирование СЛАУ: На основании векторов { ц (}, { ц (}, формируется расчетная схема на поверхности тела {гк (д, д,'-)} и для (10) вычисляется матрица [& lt-] и
вектор V ({О}, д, д,'-)}
II. Решение СЛАУ: решается (10) и находится вектор { у}
III. Генерация В Э: формируется вектор {П^-}, увеличивается размерность системы (11) и вектор {П (} записывается в файл
IV. Расчет приращений: для (9) вычисляются приращения правой части Л ({0}) — а!
V. Расчет нагрузок: по формуле (11) вычисляется давление в контрольных точках К^, формируются векторы и ,
VI. Расчет динамики УММ: по вектору формируется вектор { @с}. и после интегрирования (1), получаются векторы.
VII. Смещение В Э: определяется вектор {0('-,+1} = {0('-,} + Л ({0}) — А?
VIII. Реструктуризация В Э: для уменьшения размерности вектора {П (^+!) } близко расположенные ВЭ объединяются
Особенностью вычислительного процесса является значительная разница в размерности N вектора {q}, описывающего динамическую подсистему и размерностей Nv, NP векторов {П} и {у}, описывающих гидродинамическую подсистему. При этом размерности векторов {П} и {у} увеличиваются на каждом шаге в силу генерации ВЭ и выдвижения тела Ъ в поток. Представление поля завихренности в виде (8) требует при каждом вычислении скорости или давления в заданной точке порядка Nv операций. Например, при расчете приращений требуется порядка Ny операций, при расчете вектора правой части СЛАУ порядка NPNv операций и т. д. Матрица СЛАУ (10) является полностью заполненной и затраты на ее решение методом Гаусса составляют порядка Np операций. Как следствие, при использовании одного вычислительного ядра современного процессора персонального компьютера расчет динамики УММ занимает не более минуты, а расчет обтекания и нестационарных нагрузок требует нескольких часов, что приводит к необходимости распределить вычисления.
Для уменьшения времени расчета в методе вихревых элементов успешно используются параллельные вычисления, например с использованием технологии MPI [9]. Ускорение времени счета при распараллеливании определяется законом Амдала [10]
и = [/ + (1 -/V"]& quot-1 (13)
где U — кратность ускорения времени счета, f — доля последовательного кода программы (программа без распараллеливания дает f = 1,0), п — количество используемых вычислительных ядер.
Особенность структуры программного комплекса, реализующего алгоритм, состоит в объединении в единую систему двух ранее разработанных программ как показано на рис. 3. Ведущей программой является LEAVING, разработанная ОАО ВПК «НПО машиностроения» для исследования нагружения и параметров движения ЛА при старте. На каждом расчетном шаге в программе LEAVING вычисляется вектор обобщенных координат, а также перемещения и скорости центра масс ЛА. Применяется прямое интегрирование уравнений (1) с использованием модификации метода Хубольта. Ведомой программой является MDVDD, разработанная на кафедра «Аэрокосмические системы» МГТУ им. Н. Э. Баумана для решения сопряженных задач аэрогидроупругости методом вихревых элементов с использованием технологии MPI. В программе операции I-V реализованы в блоке удовлетворения граничных условий, а операции VII—VIII вв. блоке эволюции завихренности.
Рис. 3. Схема организации программного комплекса
Между программами LEAVING и MDVDD на шаге интегрирования производится обмен информацией. В программу MDVDD передаются векторы { q},{q}, а обратно передаются векторы {SP} и { Fc}. Организация интерфейса между программами LEAVING и MDVDD построена при помощи технологии FileMapping операционной системы Windows, позволяющей создать для двух программ общий раздел памяти. Синхронизация работы программ осуществляется при помощи механизма событий Events.
Общий алгоритм работы комплекса программ включает следующие шаги:
1. Программа LEAVING запускается на выполнение и запускает затем программу MDVDD в параллельном режиме на заданном количестве вычислительных ядер.
2. По команде LEAVING программой MDVDD выполняется блок удовлетворения граничных условий для начального состояния геометрии. В программу LEAVING передаются начальные векторы {SP} и { Fc}.
3. В программе LEAVING выполняется статический расчет и определяются начальные векторы
4. В программе LEAVING организуется цикл расчета динамики старта, в котором:
4.1 В программу MDVDD передаются векторы { q},{ q}.
4.2 По команде LEAVING программой MDVDD выполняется блок эволюции завихренности (операции VII-VIII)
4.3 По команде LEAVING программой MDVDD выполняется блок удовлетворения граничных условий (операции I-V))
4.4. В программу LEAVING передаются векторы {SP} и { FG}.
4.5 В программе LEAVING производится расчет одного шага интегрирования системы
(1)
5. После завершения вычислений программа LEAVING останавливает программу MDVDD.
3. Результаты тестирования распределенного алгоритма
Целью проведенных расчетов было определение эффективности разработанного алгоритма. Было проанализировано ускорение, достигаемое на различном числе ядер, и дана оценка степени распараллеливания различных операций.
В качестве тестовой использовались модельные задачи в которых выполнялось Мт = 1 0 0 шагов расчета. Число степеней свободы УММ составляло N & lt- 5 0, число панелей на обтекаемой поверхности составляло ^ & lt- 3 000,, а количество ВЭ — ^ & lt- 2 0000.
В таблице 1 приведены параметры выполнения операций для расчетного случая, в котором на последнем шаге ^ = 2 866, ^ & lt- 1 1286. Для одного, двух и четырех использованных ядер дано суммарное время (в сек.) выполнения операций. В предпоследней строке таблицы приведено максимальное ускорение счета ,
вычисленное как отношение времени счета для одного ядра к времени счета на четырех ядрах. В последней строке дана доля последовательного кода, вычисленная на основе (13) для расчета при
/ 4-(14)
^ ип) (1 -1/п) Таблица 1 Параметры выполнения операций в ходе всего расчета
I Формир. СЛАУ: II Решение СЛАУ III Генерация В Э: IV Расчет приращений V Расчет нагрузок VII Смещение В Э VIII Реструкт. ВЭ Всего
n=1 232,0 371,3 19,2 635,5 353,6 186,1 306,0 2103,8 (35 мин)
n=2 201,6 318,8 19,5 327,5 242,2 187,0 245,4 1541,9 (26 мин)
n=4 191,6 269,9 20,4 149,2 182,7 188,0 152,4 1154,2 (19 мин)
U (¼) 1,21 1,37 0,94 4,3 1,94 0,99 2,0 1,82
f 0,77 0,64 1,08 -0,02 0,36 1,01 0,33 0,40
Из таблицы видно, что достигнутое ускорение счета для операций существенно различается. Так для расчета приращений достигнуто максимальное ускорение. Превышение теоретического предела и & gt- 4 и отрицательная доля последовательного кода здесь объясняется тем, что расчет производился с использованием технологии гипертрейдинга. Время выполнения операций III и IV при параллельных вычислениях не уменьшилось, а, наоборот, возросло, что объясняется, по-видимому, особенностью архитектуры программного комплекса. Для остальных операций ускорение лежало в пределах. 1,21 & lt- и & lt- 2,01. В результате при расчете ста шагов достигнуто менее чем двукратное ускорение счета на четырех ядрах.
С увеличением числа использованных ядер из-за различной эффективности распараллеливания операций изменяется распределение времени выполнения операций. В качестве примера на рис. 4 показано как изменяется распределение времени на последнем шаге расчета. Из рисунка видно, что доля времени, затрачиваемая на расчет приращений снижается с 29% до 13% в то время как доля времени, затрачиваемая на формирование и решение СЛАУ растет с 29% до 40%.
Таким образом, ускорение счета зависит от размерностей задачи. В таблице 2 представлены результаты расчета последнего шага для трех задач. Из таблицы видно, что ускорение растет на 8% при увеличении числа В Э Ыу на 50%, что объясняется увеличением времени расчета операции IV и высокой эффективностью распараллеливания данной операции. Также ускорение растет на 11% при уменьшении количества панелей ЫР на 8%, что объясняется уменьшением времени расчета операций I, II и низкой эффективностью распараллеливания данных операции.
Рис. 4. Распределение времени выполнения операций на последнем шаге Таблица 2. Время счета последнего шага в зависимости от дискретизации
Вариант 1 Ыу = 17 170 = 2866 Вариант 2 Ыу = 11 286 = 2866 Вариант 3 Ыу = 10 744 = 2620
время, с и время, с и время, с и
п=1 97 1,0 57 1,0 53 1,0
п=2 66 1,47 43 1,33 34 1,56
п=4 49 1,97 31 1,83 26 2,04
4. Выводы
Исследование производительности разработанного алгоритма показало, что при моделировании задачи старта с использованием параллельных вычислений для расчета нагрузок методом вихревых элементов время счета уменьшается. Однако достигаемое ускорение существенно меньше теоретического предела. На четырех ядрах достигается двукратное ускорение. Этот результат существенно отличается от полученного ранее для расчета обтекания неподвижных тел, где на четырех ядрах достигается практически четырехкратное ускорение [9].
Можно указать две причины снижения эффективности распараллеливания. Во-первых, при моделировании кратковременного переходного режима старта возникает значительно меньше ВЭ (VVy & lt- 20 000), чем при расчете обтекания тел (iV7 & lt- 80 000). Время выполнения наиболее трудоемкой и наиболее эффективно распараллеливаемой операции IV уменьшается и эффективность распараллеливания снижается. Во-вторых, эффективность распараллеливания метода Гаусса для заполненной матрицы СЛАУ (10) низка. В случае обтекания неподвижного жесткого тела матрица системы может быть сформирована и обращена один раз, что резко снижает вычислительные затраты. При моделировании старта обтекаемая поверхность изменяется на каждом шаге и при этом растет число панелей и размерность системы (10), что определяет существенное снижение эффективности распараллеливания. В качестве путей преодоления обнаруженных ограничений необходимо работать в направлении снижения доли последовательного кода в операциях алгоритма.
Проведенное исследование позволило определить, что разработанный алгоритм может быть наиболее эффективно использован для расчетов задач исследованной размерности () на небольшом числе ядер то есть на
персональном компьютере с одним или двумя четырехядерными процессорами.
Список литературы
1. Александров А. А., Драгун Д. К., Забегаев А. И., Ломакин В. В. Механика контейнерного старта ракеты при действии поперечных нагрузок // Инженерный журнал: наука и инновации. 2013. № 3. Режим доступа:
http: //engjournal. ru/catalog/machin/rocket/631. html (дата обращения 01. 01. 2015).
2. Дегтярь В. Г., Пегов В. И. Гидродинамика баллистических ракет подводных лодок: монография. Миасс: ФГУП «ГРЦ», 2004. 256 с.
3. Щеглов Г. А. Алгоритм расчета гидроупругой динамики процесса выдвижения тела в пространственный поток // Оборонная техника. 2009. № 1−2. С. 9−14.
4. Lighthill M.J. Introduction. Boundary Layer Theory // Laminar Boundary Layers / ed. by J. Rosenhead. New-York: Oxford University Press, 1963. P. 54−61.
5. Kempka S.N., Glass M.W., Peery J.S., Strickland J.H. Accuracy Considerations for Implementing Velocity Boundary Conditions in Vorticity Formulations. SANDIA Report SAND96−0583 UC-700. March, 1996. 50 p.
6. Marchevsky I.K., Scheglov G.A. Symmetrical vortex fragmenton as a vortex element for incompressible 3D flow simulation // Proceedings of the 6th International Conference on Computational Fluid Dynamics (ICCFD 2010). P. 897−898.
7. Щеглов Г. А. О применении вортонных рамок в методе вихревых частиц // Вестник МГТУ им. Н. Э. Баумана. Сер. Естественные науки. 2008. № 2. С. 104−113.
8. Андронов П. Р., Гувернюк С. В., Дынникова Г. Я. Вихревые методы расчета нестационарных гидродинамических нагрузок. М.: МГУ, 2006. 184 с.
9. Щеглов Г. А., Марчевский И. К. Применение параллельных алгоритмов при решении задач гидродинамики методом вихревых элементов // Вычислительные методы и программирование. 2010. Т. 11, № 1. С. 105−110.
10. Amdahl G. Validity of the Single Processor Approach to Achieving Large-Scale Computing Capabilities // AFIPS Spring Conf. Proc. 1967. Vol. 30. P. 483−485. DOI: 10. 1145/1 465 482. 1 465 560
Science and Education of the Bauman MSTU, 2015, no. 02, pp. 58−71.
DOI: 10. 7463/0215. 756 606
Received:
24. 12. 2014
Science^Education
of the Bauman MSTU
ISS N 1994−0408 © Bauman Moscow State Technical Unversity
Distributed Algorithm for Computing the Vehicle Launch Dynamics under Interaction with the Medium
G.A. Shcheglov1'-*, A. Yu. Shilov2, E. V. Junak2 Vorggmergommju
: Bauman Moscow State Technical University, Moscow, Russia 2MIC «NPO Mashinostroyenia», Reutov, Russia
Keywords: algorithm, vortex element method, incompressible medium, vorticity, vorton,
hydroelasticity, flying vehicle, distributed computing, parallel computing
The paper describes a distributed algorithm and a structure of the software package for its implementation in which a program for computing the vehicle launch dynamics under interaction with the medium flow is complemented with a program to determine the unsteady hydrodynamic loads by the vortex element method.
A distinctive feature of the developed system is that its local (running on a single computing core) LEAVING program to calculate the launch dynamics runs together with concurrent (running on multiple computing cores) MDVDD program to compute the unsteady vortex flow and hydrodynamic loads. The LEAVING program is the main one. It is launched app and then runs the MDVDD program in concurrent mode on the specified number of cores. Using MPI technology allows you to use a multiprocessor PC or a local network of multiple PCs to perform calculations. The equations of launcher spring-mass model dynamics and equations of vortex elements parameters evolution are integrated with the same time step. The interprogram communiaction in the step is provided asynchronously using the OS Windows Event mechanism (Events). Interfacing between LEAVING and MDVDD programs is built using the OS Windows FileMapping technology, which allows a specified data structure to be displayed and read to the fixed memory area.
The paper provides analysis of acceleration achieved with parallel processing on different numbers of cores, and defines a parallelization degree of various operations. It shows that the parallelization efficiency of the developed algorithm is slower than in case of calculation of the rigid body flow. The causes of reduced efficiency are discussed.
It is shown that the developed algorithm can be effectively used to solve problems on a small number of cores, e.g. on PC based on one or two quad-core processors.
References
1. Aleksandrov A.A., Dragun D.K., Zabegaev A.I., Lomakin V.V. The mechanics of container rocket launch with the effect of lateral loads. Inzhenernyy zhurnal: nauka i innovatsii = Engineering Journal: Science and Innovation, 2013, no. 3. Available at: http: //engjournal. ru/catalog/machin/rocket/631. html, accessed 01. 01. 2015. (in Russian).
2. Degtyar'- V.G., Pegov V.I. Gidrodinamika ballisticheskikh raketpodvodnykh lodok [Hydrodynamics of submarines ballistic missile]. Miass, FGUP '-GRTs'- Publ., 2004. 256 p. (in Russian).
3. Shcheglov G.A. Algorithm for the calculation of body hydroelastic dynamics by moving-out in 3D-flow. Oboronnaya tekhnika, 2009, no. 1−2, pp. 9−14. (in Russian).
4. Lighthill M.J. Introduction. Boundary Layer Theory. In: Rosenhead J., ed. Laminar Boundary Layers. New-York, Oxford University Press, 1963, pp. 54−61.
5. Kempka S.N., Glass M.W., Peery J.S., Strickland J.H. Accuracy Considerations for Implementing Velocity Boundary Conditions in Vorticity Formulations. SANDIA Report SAND96−0583 UC-700. Sandia National Laboratories, Albuquerque, N.M., March 1996. 50 p.
6. Marchevsky I.K., Scheglov G.A. Symmetrical vortex fragmenton as a vortex element for incompressible 3D flow simulation. Proceedings of the 6th International Conference on Computational Fluid Dynamics (ICCFD 2010). 2010, pp. 897−898.
7. Shcheglov G.A. On Application of Vortex Frames in Method of Vortex Blobs. Vestnik MGTU im. N.E. Baumana. Ser. Estestvennye nauki = Herald of the Bauman Moscow State Technical University. Ser. Natural science, 2008, no. 2, pp. 104−113. (in Russian).
8. Andronov P.R., Guvernyuk S.V., Dynnikova G. Ya. Vikhrevye metody rascheta nestatsionarnykh gidrodinamicheskikh nagruzok [Vortex methods of calculation non-stationary hydrodynamics forces]. Moscow, MSU Publ., 2006. 184 p. (in Russian).
9. Shcheglov G.A., Marchevskii I.K. Application of parallel algorithms for solving hydrodynam-ic problems by the vortex element method. Vychislitel'-nye metody i programmirovanie = Numerical Methods and Programming, 2010, vol. 11, no. 1, pp. 105−110. (in Russian).
10. Amdahl G. Validity of the Single Processor Approach to Achieving Large-Scale Computing Capabilities. AFIPS Spring Conf. Proc, 1967, vol. 30, pp. 483−485. DOI: 10. 1145/1 465 482. 1 465 560

ПоказатьСвернуть
Заполнить форму текущей работой