Обработка на супервычислителе потока экспериментальных данных

Тип работы:
Реферат
Предмет:
ТЕХНИЧЕСКИЕ НАУКИ


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Ъюмшь ЯлГАОяЯ/
Уфа: УГАТУ. 2012_____________________________^^____________________________Т. 16, № 3(48). С. 126−133
МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ, ЧИСЛЕННЫЕ МЕТОДЫ И КОМПЛЕКСЫ ПРОГРАММ
УДК 004. 075
Р. А. Степанов, А. Г. Масич, А. Н. Сухановский, В. А. Щапов, А. С. Игумнов, Г. Ф. Масич
ОБРАБОТКА НА СУПЕРВЫЧИСЛИТЕЛЕ ПОТОКА ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ
Проведение современных газо- и гидродинамических экспериментальных исследований невозможно без качественных измерений полей скорости. Бесконтактные методы измерений (Р|У, PTV, PLIF), основанные на обработке изображений, занимают ведущую позицию. Точность измерений зависит от характеристик видеокамер (разрешение и частота кадров) и от возможностей алгоритмов расчета. Ограниченность вычислительной производительности подключенных к экспериментальной установке компьютеров во многом сдерживает развитие математического аппарата и возможности проведения эксперимента. Перенос вычислений на многопроцессорные системы позволит использовать ресурсоемкие, но высокоточные алгоритмы, избегать хранения гигантских объемов избыточной информации, обрабатывать измерения «на лету» и проводить эксперименты с обратной связью. Это направление работ получило название «Распределенный Р1У» [1], поддержано грантом РФФИ № 11−07−96 001-р_урал_а и проектом Региональной целевой программой УрО РАН № РЦП-11-П10. Распределенные системы- параллельные вычисления- системы передачи данных- суперкомпьютерные вычисления- РIV
1. ПОСТАНОВКА ЗАДАЧИ
Постановка задачи экспериментального и численного исследования переноса мелкомасштабной спиральности и завихренности крупномасштабным адвективным потоком в плоском слое. Адвективный поток создается распределенным нагревом в центральной части дна модели. В данной задаче диаметр области нагрева существенно превышает толщину слоя. Генерация мелкомасштабных закрученных конвективных струй, характеризуемых ненулевым значением спиральности, будет производиться за счет точечных источников тепла. Эта задача имеет интересное приложение в связи с изучением начальной стадии формирования тропических циклонов. Вопрос о том, как из состояния вихревого возмущения происходит заметная интенсификация вихря, до сих пор остается открытым. Существенную роль могут играть так называемые «горячие башни» — интенсивные конвективные струи в области формирования циклона [2, 3]. Существует предположение, что эти конвективные струи могут приводить к концентрации завихренности, формированию ме-зомасштабных вихрей, которые, объединяясь, могут существенно усиливать крупномасштабное вихревое движение. Экспериментальные исследования в упрощенной модельной постановке могут помочь в понимании данной задачи.
Контактная информация: 8(342)237−83−76 Работа поддержана грантом РФФИ № 11−07−96 001-р_урал_а и проектом Региональной целевой программой УрО РАН № РЦП-11-П10
2. ЭКСПЕРИМЕНТАЛЬНАЯ УСТАНОВКА
Измерительная часть установка PIV состоит из следующих компонентов. Мощный импульсный лазер Quantel используется для освещения измерительной области лазерным ножом регулируемой толщины. Две цифровые камеры ВИДЕОСКАН-11 002−2001 [4] на базе CCD матрицы разрешением 4004×2671 (пикселей) и разрядностью АЦП 12 бит/пиксель регистрируют мгновенные изображения с кадровой частотой от 1,2 до 5,8 Гц. Синхронизатор и персональный компьютер с программным обеспечением Actual Flow управляют экспериментом и сохраняют полученные с камер данные [5]. Камеры подключены к компьютеру через карту видеозахвата (PCI-контроллер VS2001). Компьютер работает под управлением операционной системы Windows XP, оснащен четырехядерным процессором (Phenom 2×4) с тактовой частотой 3,2 ГГц, имеет объем оперативной памяти 4 ГБ и дисковой памяти 1TB, подключен двумя портами 1GE к коммутирующему оборудованию ИМСС УрО РАН. На компьютере с ПО Actual Flow возможна также последующая обработка данных и визуализация результатов обработки, однако большой объем получаемых данных, а также ресурсоемкость расчетных программ не позволяют проводить обработку в реальном времени [5].
Экспериментальный фрагмент установки (рис. 1) представляет собой прямоугольную кювету (70×70 см2) с цилиндрической вставкой. Такая конфигурация позволяет обеспечить осевую симметрию и избежать оптических искажений в вертикальных сечениях.
Экспериментальная установка Р IV ИМСС УрО РАН, Пермь
Рис. 1. Экспериментальная установка
Конвективное течение создается набором распределенных нагревателей, что позволяет задавать структуру течения. Кювета располагается на вращающемся столе, который обеспечивает стабильное вращение в широком диапазоне угловых скоростей О. В кювету заливается силиконовое масло с кинематической вязкостью 5×10−6 м2/с. Трассерами являются стандартные РГУ частицы диаметром 20 мкм. Участники проекта имеют успешный опыт применения РГУ систем при исследовании конвективных потоков в замкнутых объемах [6, 7].
3. ПАРАЛЛЕЛЬНЫЙ АЛГОРИТМ ОБРАБОТКИ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ
Алгоритм параллельного расчета мгновенных полей скорости по изображениям, поступающих с измерительной установки, реализуется в двух вариантах. Первый вариант состоит в распределении непрерывного потока данных по процессорам. При этом каждый процессор выполняет последовательный алгоритм определения поля скорости по одной паре изображений во всей расчетной области. Второй вариант за-
ключается в параллельном расчете на нескольких процессорах поля скорости для одной пары изображений. В этом случае целесообразна передача одной пары изображений от удаленной экспериментальной установки до внутренней сети кластера и последующее дублирование этой пары в оперативную память каждого процессора средствами межузловой сети кластера. Непосредственное распараллеливание расчетного алгоритма делается стандартным способом деления расчетной области на подобласти. Итерации циклов кросскорреляционного алгоритма являются информационно независимыми. Минимальный межпроцессорный обмен необходим лишь на стадии адаптационного уточнения.
Оба подхода параллельной обработки данных имеют свои преимущества и недостатки. Основное удобство использования первого подходя состоит в непосредственном применении любого последовательного пусть то стандартного, адаптивного или вейвлет кросскорреляцион-ного алгоритма. Межпроцессорный обмен отсутствует.
Экспериментальная установка
1 измерение 2 измерение
N-1 измерение N измерение
N+1 измерение
N+2 измерение
N+N-1
измерение
R-NIC
LambdaGrid
10−40GE
Супервь^ ислитель
Interconnect (cascaded L2 switches 10−40GE)
1 узел
2 узел
N-1 узел
Ы+Ы измерение
N узел
Рис. 2. Идеальная модель обмена интенсивным потоком данных
Недостатком является ограничение минимального времени обработки одной пары изображений временем работы последовательного алгоритма. Это может быть критично при использовании высокоточных и ресурсозатратных алгоритмов, а также при обработке данных с высоким разрешением. Так же отметим ограниченную масштабируемость. Максимальное число процессоров не может превышать отношение времени работы последовательного алгоритма и времени между двумя последовательными парами изображений. Второй способ требует доработки в плане организации межпроцессорного обмена, но обладает практически неограниченными возможностями по минимизации времени обработки одной пары изображений. Окончательный выбор метода имеет смысл делать при всех известных условия проведения эксперимента.
4. ИДЕАЛЬНАЯ МОДЕЛЬ ОБМЕНА
ИНТЕНСИВНЫМ ПОТОКОМ ДАННЫХ
Используется предложенная в [10] идеальная модель (рис. 2), суть которой — прямой доступ к оперативной памяти вычислительных узлов многопроцессорной системы. Задержка обмена данными между системами имеет две компонента: задержки в оконечных системах
и скорости передачи и распространения сигналов по протяженным оптическим линиям связи. Спектральное уплотнение сигналов в оптической магистрали (ОТК) решает задачу скоростной передачи данных между взаимодействующими системами. Задержка приема/передачи в оконечных системах определяется скоростью порта и временем поступления данных от ЕШетеІ порта сетевого адаптера (N10) в буфер приложения и, наоборот, из буфера приложения в сеть (порт адаптера). Скорости портов непрерывно растут (1−10−1000Е) и основная проблема заключается в передаче данных приложению. Эта задержка возникает как на передающей, так
и на приемной стороне и определяется внутренней сущностью NIC. В качестве I/O портов связываемых по OTN оконечных систем целесообразно использование интеллектуальных NIC карт (Intelligent Ethernet adapter), которые аппаратно поддерживают стеки протоколов передачи данных (TOE NIC — TCP Offload Engine) и технологии удаленного прямого доступа к памяти (R-NIC) для разгрузки CPU узлов в связи с переходом на скорости 10−100GE.
5. КОММУНИКАЦИОННЫЙ ФРАГМЕНТ ИНФРАСТРУКТУРЫ
Коммуникационный фрагмент инфраструктуры использует оптическую транспортную сеть (OTN — optical transport network), создаваемую в рамках «Инициативы GIGA UrB RAS» [8, 9] для нужд научно-образовательного сообщества территории от Архангельска до Екатеринбурга. Реализованный участок Пермь-
Екатеринбург построен по технологии Гигабит Ethernet (GE) на «темном» оптическом волокне. Обеспечение гибкости многоцелевого использования скоростных коммуникаций для нужд конкретных проектов достигается построением различных VLAN по транковым соединениям L2 коммутирующего оборудования. Как показано на рис. 3, по VLAN A обеспечена L2 коннективность экспериментальной установки PIV в ИМСС УрО РАН с суперкомпьютером URAN в ИММ УрО РАН, а VLAN B используется для установления пиринговых отношений между маршрутизирующим оборудованием сопрягаемых IP -сетей передачи данных.
Таким образом, инфраструктура коммуникаций позволяет соединять оконечные системы как на уровне L2 OSI RM, в нашем случае через коммутируемый Ethernet, так и на уровне L3 OSI RM, т. е. через маршрутизирующее оборудование IP сетей передачи данных. Модели распределения IP-адресного пространства (Private и Public) и последующего их назначения портам оконечных систем позволяют увеличить число способов и технологии организации их взаимодействия. А вводимая в эксплуатацию на этом участке система плотного волнового мультиплексирования (DWDM) позволит отрабатывать перспективные лямбда грид парадигмы распределенных вычислений.
Локальное тестирование разрабатываемых протоколов передачи данных и алгоритмов обработки данных выполняется на МВС-1000/16П, расположенной в ИМСС УрО РАН.
б. КАНАЛЫ ВВОДА/ВЫВОДА СУПЕРКОМПЬЮТЕРА
Разрабатываемая инфраструктура согласно идеальной модели требует подключения к внутреннему interconnect вычислителя удаленной экспериментальной (или любой другой) установки. Наша попытка реализовать средствами MPI взаимодействие платформ UNIX и Windows была не успешна. Поэтому для поддержки многоплатформенности сопрягаемых устройств и минимальных доработок в оконечных системах используется описанный ниже «протокольный» подход. В процессе работы над проектом реализованы и апробированы две схемы подключения.
Согласно первой схеме ЭУ подключена к внутреннему interconnect вычислителя средствами VLAN в единый Ethernet сегмент. ЭУ выделяется свободный Private IP-адрес из единого блока IP-адресов внутреннего interconnect вычислителя. Это не классическая схема доступа пользователей к супервычислителю и, пожалуй, психологически трудно воспринимаемая администраторами этих систем.
Во второй схеме ЭУ подключается к фронтальной машине вычислителя по VLAN или через Public Интернет. Для этого на фронтальной машине выполняется PAT (Port Address Translation) трансляция Private IP адресов вычислительных узлов в один Public IP адрес с разными портами прикладных процессов, запускаемых на вычислителе. Этим достигается возможность доступа прикладных процессов (вычислительных узлов) к ЭУ через фронтальную машину. Такое решение ближе к классическим системам доступа пользователей к системам пакетной обработки и психологически более приемлемо. Однако узким местом становится фронтальная машина, транслирующая через себя интенсивный поток данных. Тем не менее, выполненные измерения скорости обмена между тестовой машиной и вычислителем URAN через фронтальную машину по каналу i Гбит/с с помощью запуска программы iperf на 24 узлах при iG TCP соединениях с каждого узла вычислителя показали суммарную пропускную способность S5G Мбит/с, что практически не отличается от пропускной способности без использования NAT/PAT.
ICMM UrB RAS (Perm)
С2960G
С3750
С6503
С4948
С4948
МВС-1000/16 Вычислительные узлы
Laboratory of physical hydrodynamics
«Зеркало»
Priv IP 172. 16. 254.1 -*L2 connect URAN Priv IP 192. 168.2. 18 -& gt-L2 connect MBC-1000 Pub IP x.x.a.a -& gt-L3 connect
Экспериментальная установка PIV
Фронтальный узел Priv IP 192. 168.2. 17 Pub IP x.x.b. b
OTN «GIGA UrB RAS»
VLAN В (Piring)
VLAN A (L2 connect)
Internet
URAN
Вычислительные
узлы
(этап 2)
СКИФ
(этап 1)
Фронтальный узел Priv IP 172. 16. 253.1 Pub IP z.z.z. z
IMM UrB RAS (Yekaterinburg)
Рис. 3. Коммуникационный фрагмент инфраструктуры
7. ПРОТОКОЛ ВЗАИМОДЕЙСТВИЯ ОКОНЕЧНЫХ СИСТЕМ
Взаимодействие оконечных систем осуществляется с использованием разработанного протокола передачи данных, получившего название «Протокол PIV». Разработанный протокол PIV базируется на идее отказа от однозначного отображения измерений на вычислительные узлы [11].
В случае наличия единого источника данных, который соответствует экспериментальной установке, отказ от однозначного отображения измерений на вычислительные узлы позволил реализовать схему, в которой вычислительные узлы самостоятельно запрашивают данные для расчетов у экспериментальной установки. Это позволило упростить процедуру распределения экспериментальных данных на вычислительные узлы до процедуры, работающей по схеме: «отдай готовые для расчета данные первому обратившемуся узлу». Помимо этого отказ от однозначного отображения позволит:
• отказаться от синхронизаций вычислительных узлов между собой перед обработкой каждого измерения-
• изменять число задействованных узлов непосредственно во время эксперимента, добавляя в случае необходимости вычислительные мощности-
• минимизировать объем потерянной информации в случае выхода из строя одного или нескольких вычислительных узлов.
Протокол PIV является протоколом прикладного уровня, работает по схеме «запрос-ответ» и базируется на протоколе TCP. Текущая архитектура позволяет использовать вместо протокола TCP любой протокол, работающий в потоковом режиме и гарантирующий доставку данных. Протокол PIV позволяет обмениваться сообщениями (элементы пары «запрос-ответ»), состоящими из нескольких блоков бинарных данных. В одном пакете протокола можно передать от нуля до 65 535 блоков, каждый из которых может иметь размер до 4 Гбайт. Поля заголовка пакета протокола кодируются в сетевом порядке байт. Формат пакета протокола PIV приведен на рис. 4.
Текущая версия протокола поддерживает три типа пакетов (поле «Команда» протокола PIV):
• GET — предназначен для запроса данных вычислительными узлами у ЭУ-
• POST — предназначен для передачи данных с вычислительных узлов на ЭУ-
• RESPONSE — пакет ответа на запрос вычислительного узла.
Заголовок
Список
длин
блоков
Блоки
данных
Рис. 4. Формат пакета протокола PIV
Информация о подтипе RESPONSE-пакета кодируется в поле статуса. Через поле статуса вычислительным узлам сообщается успешно ли был обработан запрос или нет. В случае неуспеха конкретное значение поля статуса определяет произошедшую ошибку.
В текущей реализации определены 4 группы статусов:
• 1хх — информационные статусы. Используются для информирования клиента о том, что сервер активен или о том, что новых данных нет, но они будут.
• 2хх — статусы этой группы показывают, что запрошенное действие выполнено успешно.
• 4хх — ошибка клиента. Статусы этой группы показывают, что от клиента был получен некорректный запрос.
• 5 хх — ошибка сервера. Статусы этой группы показывают, что при обработке запроса возникла внутренняя ошибка сервера.
Процесс получения данных вычислительным узлом состоит из следующих этапов:
1. Открытие соединения с сервером.
2. Отправка запроса GET.
3. Получение ответа от сервера. Если получено сообщение о прекращении работы — переход на шаг 8.
4. Обработка полученных от сервера данных.
5. Отправка на сервер результатов расчета в запросе POST.
6. Получение подтверждения об успешном приеме.
7. Переход на шаг 2.
8. Закрытие соединения с сервером.
9. Результаты измерений.
Длина блока данных N
Рис. 5. Визуализация трафика четырех TCP-соединений средствами Wireshark
Анализ эффективности разрабатываемых архитектурных решений по передаче интенсивного потока экспериментальных данных проводится путем обработки как log файлов, так и дампа трафика, снимаемого программным обеспечением wireshark. Для записи дампа трафика используется два подхода. В первом случае wireshark запускается непосредственно на компьютере экспериментальной установки. Недостатком этого способа являлся значительный рост нагрузки на процессор и дисковую подсистему ЭУ, что негативно отражалось на процессе передачи данных. Во втором случае трафик экспериментальной установки, средствами коммутатора Cisco C2960G (port mirroring) зеркалируется на отдельный сервер, который занимается только перехватом и записью дампа трафика. Использование зеркалирования трафика позволяет снять нагрузку от процесса записи трафика на компьютер экспериментальной установки, и перенести ее на специальный выделенный сервер.
Первичный анализ и визуализация трафика проводятся средствами Wireshark. Для анализа строились графики зависимости скорости передачи данных в каждой задействованной TCP-сессии от времени. Это позволяет наблюдать протокольные процедуры каждого соединения, степень загрузки канала связи и как следствие эффективность используемых протоколов. На рис. 5 приведен график скоростей передачи данных между экспериментальной установкой и вычислительными узлами суперкомпьютера.
Черной линией на графике показана суммарная скорость передачи данных, а оставшиеся линии показывают скорости передачи данных в четырех из 10 используемых TCP-сессий.
9. ЗАКЛЮЧЕНИЕ
Созданная инфраструктура позволяет выполнять комплекс работ по передаче и обработке в реальном времени интенсивных потоков экспериментальных данных, является прототипом создаваемой в Уральском отделении РАН киберинфраструктуры региона, фундаментом которой являются высокоскоростные оптические сети. Успешность разрабатываемых решений определяется новыми парадигмами распределенных вычислений и как следствие новыми постановками научных задач (приложений). Это обстоятельство повлияло на состав участников проекта и данной публикации, в котором присутствуют экспериментаторы, архитекторы многопроцессорных систем и сетевых технологий, профессионалы по системному и параллельному программированию.
СПИСОК ЛИТЕРАТУРЫ 1. Степанов Р. А., Масич А. Г., Масич Г. Ф.
Инициативный проект «Распределенный PIV» // Научный сервис в сети Интернет: масштабируемость, параллельность, эффективность: тр. Всероссийск. суперкомпьютерн. конф. М.: Изд-во МГУ, 2009. С. 360−363.
2. Eric A. Hendricks, Michael T. Montgomery and Christopher A. Davis. 2004: The Role of «Vortical» Hot Towers in the Formation of Tropical Cyclone Diana // Journal of the Atmospheric Sciences. 1984. Vol. 61, No. 11. P. 1209−1232.
3. 2006: A Vortical Hot Tower Route to Tropical Cyclogenesis / M. T. Montgomery [et al.] // Journal of the Atmospheric Sciences. Vol. 63, No. 1. P. 355−386.
4. Видеоскан спецификация. http: //videoscan. ru /page/802. 25. 03. 2011
5. Система управления экспериментом и обработки данных, полученных методами цифровой
трассерной визуализации (ActualFlow) / Е. К. Ахмет -беков [и др.] // Вычислительные методы и программирование. 2006. Т.7. С. 79−85.
6. Баталов В. Г., Сухановский А. Н., Фрик П. Г. Экспериментальное исследование спиральных валов в адвективном потоке, натекающем на горячую горизонтальную поверхность // Известия РАН. Механика жидкости и газа. 2007. № 4. С. 50−60.
7. Batalov V., Sukhanovsky A., Frick P. Laboratory study of differential rotation in a convective rotating layer // J. Geophys. Astrophys. Fluid Dynam. 2010. P. 349−368.
8. Масич А. Г., Масич Г. Ф. Инициатива GIGA UrB RAS // Совместный вып. журн. «Вычислительные технологии» и журн. «Вестник КазНУ им. Аль-Фараби». Сер. «Математика, механика, информатика» № 3 (58). По материалам Междунар. конф. «Вычислительные и информационные технологии в науке, технике и образовании». Казахстан, Алма-ты. 2008. Т. 13. Ч. II. С. 413−418.
9. Масич А. Г., Масич Г. Ф. От «Инициативы GIGA UrB RAS» к Киберинфраструктуре УрО РАН // Вестник Пермского научного центра (октябрь-декабрь 4/2009). Пермь: Изд-во ПНЦ УрО РАН, 2009. С. 41−56.
10. Масич А. Г., Масич Г. Ф. GIGA UrB RAS подход к LambdaGrid парадигмам вычислений // Научный сервис в сети Интернет: суперкомпьютерные центры и задачи: Тр. Международн. суперкомпью-терн. конф. М.: Изд-во МГУ, 2010. С. 4−11.
11. Скоростной I/O-канал супервычислителя и протокол обмена интенсивным потоком экспериментальных данных / А. Г. Масич [и др.] // Сб. тез. докл. X международн. конф. «Высокопроизводительные параллельные вычисления на кластерных системах «HPC-2010». Пермь: Изд-во ПГТУ, 2010. Т. 2. C. 119−128.
ОБ АВТОРАХ
Степанов Родион Александрович, ст. науч. сотр. лаб. физ. гидродинамики ИМСС УрО РАН. Д-р физ. -мат. наук. Иссл. в обл. параллельных вычислений, оптических методов измерений, астрофизических магнитных полей, магнитогидродинамической турбулентности, теории динамо, нелинейных динамических систем.
Масич Алексей Григорьевич, мл. науч. сотр. лаб. телеком. и инф. систем ИМСС УрО РАН. Дипл. инженер по автоматике и управлению в техн. системах (ПГТУ, 1999). Иссл. в обл. архитектур высокопроизводительных выч. систем и сетей новых поколений.
Сухановский Андрей Николаевич, науч. сотр. лаб. физ. гидродинамики ИМСС УрО РАН. Канд. физ. -мат. наук. Иссл. в обл. конвективных течений, моделирования геофизических течений.
Щапов Владислав Алексеевич, инженер лаб. телеком. и инф. систем ИМСС УрО РАН, асп. каф. ИТАС ПНИПУ. Дипл. инженер по АСОИУ (ПНИПУ, 2011). Готовит диссертацию в обл. потоковой обработки экспериментальных данных на суперкомпьютерах в реальном времени.
Игумнов Александр Станиславович, зав. отд. системного обеспечения ИММ УрО РАН. Дипл. механик (УрГУ 1984). Иссл. в обл. программн. обеспечения вычислительн. кластеров.
Масич Григорий Федорович, зав. лаб. телеком. и инф. систем ИМСС УрО РАН. Дипл. инженер по автоматике и телемеханике (ППИ, 1969). Канд. техн. наук и по выч. машинам, комплексам, системам и сетям (ЛИИАН/СПИИРАН, 1992). Иссл. в обл. архитектур высокопроизводительных инф. -выч. систем и сетей новых поколений.

ПоказатьСвернуть
Заполнить форму текущей работой