Термінова допомога студентам
Дипломи, курсові, реферати, контрольні...

Суперкомп'ютери

РефератДопомога в написанніДізнатися вартістьмоєї роботи

Останніми роками у справі створення ПЗ для систем з розподіленої пам’яттю намітився серйозного прогресу. Найбільшим досягненням була стандартизація інтерфейсу передачі повідомлень MPI (message passing interface). По-перше, MPI підтримує кілька режимів передачі, найважливіші у тому числі: синхронна передача, яка потребує виділення проміжних буферів для даних, і забезпечує надійну передачу даних… Читати ще >

Суперкомп'ютери (реферат, курсова, диплом, контрольна)

МІНІСТЕРСТВО ОСВІТИ РФ.

ЮЖНО-РОССИЙСКИЙ ДЕРЖАВНИЙ ТЕХНИЧЕСКИЙ.

УНИВЕРСИТЕТ.

(Новочеркаський політехнічний институт).

Факультет: Інформаційних Технологій і Управления.

Кафедра: Автоматики і Телемеханики.

Спеціальність: Управління і інформатика в технічних системах.

РЕФЕРАТ.

по информатике.

На тему: Суперкомпьютеры.

Виконав студент I — 1а Каширин У. В.

Ф.И.О.

Керівник асистент Малашенко Л.И.

Посада, звання Ф.И.О.

Консультант асистент Малашенко Л.И.

Посада, звання Ф.И.О.

До захисту Захист прийнято з оценкой.

«______» ______________2000 р. ____________________________.

___________________________ «_____"________________2000г.

Підпис ____________________________.

Подпись.

Новочеркасск 2000.

СОДЕРЖАНИЕ ВВЕДЕНИЕ 3 1 ОСНОВНІ ПЛАНИ АРХІТЕКТУРИ 4.

1.1 Архітектура SMP 4.

1.2 Архітектура MPP 4.

2 СУПЕРКОМП’ЮТЕРИ КОМПАНІЇ nCube 4.

2.1 Основні засади архітектури 5 a) Розподілена пам’ять 5 б) Межпроцессорная мережу 5 в) Високий рівень інтеграції 6.

2.2 Суперкомп’ютер nCube 2 7.

2.3 Архітектура процесора nCube 8 а) Система ввода/вывода nCube 2 9.

2.4 Програмне забезпечення 10.

2.5 Надійність системи nCube 2 10 3 МЕРЕЖА ЯК СУПЕРКОМП’ЮТЕР 11.

3.1 Паралельні програми — головним гальмом 11.

3.2 MPI 11.

3.3 Реалізації MPI 12.

3.4 Кошти програмування високого рівня 13.

3.5 Спроба прогнозу 14 4 ПИМЕРЫ ВИКОРИСТАННЯ СУПЕРКОМПЬЮЮТЕРОВ 14.

4.1 Моделювання побудова білка 14.

4.2 Віртуальне вежа 14.

ИСПОЛЬЗУЕМАЯ ЛІТЕРАТУРА 16.

З часу появи перших комп’ютерів однією з основних проблем, завдань, які розробниками, була продуктивність обчислювальної системи. Протягом часу розвитку комп’ютерної індустрії продуктивність процесора стрімко зростала, проте поява дедалі більше витонченого програмного забезпечення, зростання кількості користувачів і розширення сфери докладання обчислювальних систем пред’являють нові вимоги до потужності використовуваної техніки, що й спричинило до появи суперкомп’ютерів. Що й казати таке суперкомп’ютери, і чого вони нужны?

У принципі так, суперкомп’ютер звичайна обчислювальна система, що дозволяє продукувати складні розрахунки за коротші проміжки часу. Про що власне у відповідь приставка «Супер» (Super у перекладі англійського означає: понад, над). Будь-яка комп’ютерну систему складається з з трьох основних компонентів — центрального процесора, тобто лічильного устрою, блоку пам’яті і вторинної системи зберігання інформації (до прикладу, як дисків чи стрічок). Ключове значення мають як технічні параметри кожного з цих елементів, а й пропускна здатність каналів, що пов’язують їх одне з одним і з терміналами споживачів. Один із заповідей «Крей рисерч» говорить: «Швидкодія всієї системи вбирається у швидкості самої медленнодействующей її частки». Важливим показником продуктивності комп’ютера є ступінь його швидкодії. Вона вимірюється так званими флопсами — від англійського скорочення, що означає кількість операцій із числами, представленими у формі з плаваючою коми, в секунду. Тобто, протягом основу береться підрахунок — скільки найскладніших розрахунків машина може виконати за миг.

Навіщо взагалі потрібні суперкомп’ютери? Саме це це запитання відповідь представник компанії «Крей рисерч» Віто Бонджорно: Розсування кордонів людського знання завжди спиралося на два наріжних камені, які можуть, існувати друг без друга, — теорію й передати досвід. Але тепер вчені зіштовхуються про те, що чимало випробування стали практично неможливими — в окремих випадках через своїх масштабів, за іншими — дорожнечу чи небезпеку здоров’я і життя людей. Ось і приходять допоможе потужні комп’ютери. Дозволяючи експериментувати з електронними моделями реальної дійсності, вони стають «третьої опорою» сучасної науку й производства.

Минув час, коли творці суперкомп’ютерів прагнули забезпечити максимальну продуктивність за будь-яку ціну. Спеціальні процесори, дорога сверхбыстрая пам’ять, нестандартне периферійне устаткування — усе це обходилося замовникам в кругленьку суму. Купували суперкомп’ютери або підприємства ВПК, чи великі університети. І всі, і інші робив це, зазвичай, за рахунок. Закінчення «холодної громадянської війни «і наступне його скорочення асигнувань на військові і околовоенные потреби завдали серйозного удару виробникам суперкомп’ютерів. Більшість їх захопилися виготовлювачами менш продуктивної, а більш доступній і ходовий обчислювальної техніки. Втім, У цих злиттів були й технологічні передумови — швидкодія серійному виробництві мікропроцесорів постійно зростало, і виробники суперкомп’ютерів швидко переорієнтувалися ними, що дозволило істотно скоротити загальну вартість розробки. Основний упор став робитися збільшення числа процесорів і підвищення ступеня паралелізму программ.

1 ОСНОВНІ ПЛАНИ АРХИТЕКТУРЫ.

Відомо, що сьогодні є дві основні архітектури паралельних комп’ютерів: симетричні мультипроцессорные системи із загальною пам’яттю (SMP) і мультипроцессорные системи з розподіленої пам’яттю (MPP).

1.1 Архітектура SMP.

Основне перевагу SMP — відносна простота програмування. У ситуації, коли всі процесори мають однаково швидкий доступом до загальної пам’яті, питання, який із процесорів які обчислення буде виконувати, менш принципове, і значної частини обчислювальних алгоритмів, розроблених для послідовних комп’ютерів, то, можливо прискорена з допомогою распараллеливающих і векторизирующих трансляторів. SMPкомп’ютери — це найпоширеніші зараз паралельні обчислювачі, а 2-, 4-х процессорные ПК з урахуванням Pentium і Pentium Pro вже стали масовим товаром. Проте загальний число процесорів в SMP-системах, як правило, не перевищує 16, які подальше збільшення це не дає виграшу через конфліктів при зверненні до пам’яті. Застосування технологій типу UPA, заснованої на комутації пакетів замість загальної шини і локальної кеш-пам'яті великого об'єму, здатне частково покінчити з проблемою, піднявши число процесорів до 32.

1.2 Архітектура MPP.

Альтернатива SMP — архітектура MPP. Кожен процесор має доступ лише зі своєю локальної пам’яті, і якщо програмі потрібно дізнатися значення перемінної, що у пам’яті іншого процесора, то задіюється механізму передачі повідомлень. Процесор, у пам’яті котрого зберігаються потрібні дані, посилає повідомлення тому процесору, якому вони потрібні, а останній приймає його. Такий підхід дозволяє створювати комп’ютери, які включають у собі тисячі процесорів. Нею засновані все машини, мають продуктивність на сотні мільярдів операцій на секунду.

Познайомимося ближче з цим архітектурою одним із представників цієї архітектури, суперкомп’ютером nCube.

2 СУПЕРКОМП’ЮТЕРИ КОМПАНІЇ nCube.

Однією з піонерів у створенні MPP-систем стала заснована 1983 року компанія nCube. У 1985 року з’явився перший її MPP-компьютер, nCube 1. Система nCube 1, основу якої, як й у основі наступних поколінь комп’ютерів nCube, лежить гиперкубическая топологія межпроцессорных сполук і високий рівень інтеграції з урахуванням технології VLSI, показала рекордні результати по абсолютної продуктивності й у співвідношенні цена/производительность фінансування наукових вычислений.

У 1989 року компанія nCube випустила сімейство суперкомп’ютерів nCube 2. Великі обчислювальні можливості, гнучка архітектура і потужне спеціалізоване програмне забезпечення дозволяють застосовувати системи nCube 2 широтою діапазону областей — від найскладніших наукових завдань до управління інформацією в бизнесе.

Сімейство nCube 2 є масштабируемую серію систем, продуктивність яких може становити 34 GigaFlops. Кожен суперкомп’ютер цієї серії містить набір процесорів nCube, з'єднаних у гиперкубическую мережу. Найбільшу систему становлять 8192 процесора, і його потужність більш ніж 1000 разів перевищує потужність найменшої - з 8 процесорами. Можливості пам’яті і системи ввода/вывода зростають разом із зростанням процессорной мощности.

Наступна мета компанії nCube — розробка нового сімейства Mppсистем, суперкомп’ютерів nCube 3. Нове покоління буде суперкомп’ютерів nCube, наслідуючи принципи високої интегрируемости і масштабируемости, стане першої промислово реалізованої платформою з продуктивністю за кілька TFlops, стовідсотково сумісної з попередніми поколіннями систем nCube.

2.1 Основні засади архітектури a) Розподілена память.

У суперкомп’ютерах nCube використовується архітектура розподіленої пам’яті, що дозволяє оптимізувати доступом до оперативної пам’яті, мабуть, найбільш критичному ресурсу обчислювальної системы.

Традиційні архітектури з розділеної пам’яттю зручні для систем з невеликим числом процесорів, проте, вони погано масштабируются принаймні додавання процесорів і пам’яті. Коли системі з поділом пам’яті збільшується кількість процесорів, зростає конкуренція використання обмеженою пропускну здатність системної шини, що знижує продуктивність сполуки процессор-память. З іншого боку, додавання процесорів у таку систему вимагає збільшення кількості логіки для управління пам’яттю, знижуючи цим продуктивність системи та збільшуючи її цену.

Ці недоліки відсутні в системах з розподіленої пам’яттю. У такій системі кожен процесор має власну власну локальну пам’ять. Потенційні вузькі місця, пов’язані з шиною процессор-память і необхідністю розробляти системи управління кэшем, повністю виключаються. З додаванням процесорів додається пам’ять, пропускна здатність сполуки процессор-память масштабується разом із обчислювальної потужністю. б) Межпроцессорная сеть.

Топологія межпроцессорных сполук, забезпечує масштабирование до значної частини процесорів без зниження продуктивності комунікацій або збільшення часу очікування, є обов’язковою для MPP-систем. Суперкомп’ютери nCube використовують мережну топологію гиперкуба, яка відповідає наведеним вимогам. Сполуки між процесорами nCube-системы утворюють багатомірний куб, званий гиперкубом. Принаймні додавання процесорів збільшується розмірність гиперкуба. Поєднання двох гиперкубов однаковою розмірності утворює гіперкуб наступній розмірності. N-мерный гіперкуб містить 2? n процесорів. Двомірний гіперкуб — це квадрат. Тривимірний гіперкуб утворює звичайний куб, а четырехмерный гіперкуб є куб в кубі. Для сімейства суперкомп’ютерів nCube 2 гіперкуб максимальної розмірності 13 містить 8192 процесора. У системі nCube 3 число процесорів може становити 65 536 (16-мерный гиперкуб).

Ефективність мережевий топології вимірюється, зокрема, числом кроків передачі даних між найбільш віддаленими процесорами у системі. Для гиперкуба максимальне відстань (число кроків) між процесорами збігаються з размерностью куба. Наприклад, в найбільшому 13-мерном сімейства nCube 2 повідомлення між процесорами будь-коли проходять більш 13 кроків. Порівняйте, в 2-мерной конфігурації «mesh «(петля) із кількістю процесорів, вдвічі меншим числа процесорів в максимальної системі nCube 2, найбільше відстань між процесорами становить 64 кроку. Затримки комунікацій в такій системі значно збільшуються. Отже, жодна інша топологія сполуки процесорів неспроможна зрівнятися з гиперкубом по ефективності. Користувач може подвоїти число процесорів у системі, при цьому збільшуючи довжину шляху зв’язок між найбільш віддаленими процесорами лише на шаг.

Велика кількість сполук, у гиперкубе створює найвищу пропускну здатність межпроцессорных сполук проти будь-який інший мережевий схемою. Багато шляхів передачі і компактний дизайн гиперкуба дозволяють передавати дані з дуже високою швидкістю. Крім того, гиперкубическая схема характеризується великий гнучкістю, оскільки він дозволяє эмулировать інші популярні топології, включаючи дерева, кільця. Отже, користувачам nCube-систем гарантується коректне виконання додатків, залежать від інших топологий. в) Високий рівень интеграции.

Багато переваги nCube-систем, і найвищі показники — надійності і продуктивності, результат використання технології VLSI (Very Large Scale Integration — надвисока ступінь інтеграції). Здебільшого, ніж будь-які інші чинники, на надійність комп’ютера впливає число використовуваних компонентів. Більша число компонентів неминуче збільшує ймовірність збою системи. Через це nCube інтегрує всі функції процесорного вузла одне VLSI-устройство. VLSI-интеграция також скорочує необхідну число сполук, що потенційно можуть суттєво впливати на цілісність всієї системы.

Високий рівень інтеграції скорочує шляху передачі, підвищуючи тим самим продуктивність системи. Інтеграція процесорного вузла однією чіп залишає вільними контролю лише з'єднання з пам’яттю і мережні інтерфейси замість складних сигналів синхронізації, арбітражу і управління. Ці сполуки тестуються і коригуються з допомогою методів контролю парності і ЕСС (Error Correction Code — код корекції помилок), спрощуючи процес ухвали і ізоляції ошибок.

2.2 Суперкомп’ютер nCube 2.

Суперкомп’ютер nCube 2 масштабується від 8-процессорных моделей до моделей з 8192 процесорами. Архітектура nCube 2 врівноважує процессорную потужність, пропускну спроможність пам’яті і пропускну здатність системи ввода/вывода. Додавання процесорів до системи не тягне у себе поява вузьких місць у пропускну здатність пам’яті чи системи ввода/вывода.

Сімейство nCube 2 включає у собі дві серії суперкомп’ютерів: — Серія nCube 2S виходить з процесорі nCube 2S з тактовою частотою 25 MHz; гранична продуктивність 33 MFLOPS — 34 GFLOPS; розмір оперативної пам’яті 32 МБ — 32 Держбезпеки; — Серія nCube 2 виходить з процесорі nCube 2 з тактовою частотою 20 MHz; гранична продуктивність 26 MFLOPS — 27 GFLOPS; розмір оперативної пам’яті 32 МБ — 32 Гб.

Архітектура суперкомп’ютера сімейства nCube 2 виходить з гиперкубической мережі VLSI — чипів, спарених з незалежними друг від друга пристроями пам’яті. Чіп, чи процесор nCube 2, включає у собі: — 64-разрядный центральний процесор; - 64-разрядный модуль обчислень з плаваючою точкою; - зрозумілу стандарту IEEE (Institute of Electrical and Electronic.

Engineers — Інститут інженерів по електротехніці і радіоелектроніки) інтерфейс управління пам’яттю з 39-разрядным шляхом даних 14 двунаправленных каналів DMA (Direct Memory Access — прямий доступом до памяти).

При тактовою частоті 25 МГц процесор має швидкість 4.1 MFLOPS для обчислень з плаваючою точкою одинарної і 3.0 MFLOPS подвійний точности.

Кожен процесор nCube 2 конфигурируется з побудовою динамічної пам’яті ємністю від 4 до 64 МБайт.

Розподілена архітектура пам’яті фактично не накладає жодних обмежень на швидкість операцій із пам’яттю. Процесорам не конкурують в використанні пропускну здатність з'єднання з пам’яттю і повинні чекати підкачування даних. Додавання процесорів до системи увінчує пропускну здатність пам’яті і тим самим підвищує производительность.

Кожен суперкомп’ютер nCube 2 містить компактну мережу процесорів. На одну процессорную плату nCube 2 може монтуватися до 64 процесорів. Процесорна стійка може містити 16 плат із загальною кількістю процесорів до 1024. Для побудови систем більшого розміру стійки комбінуються. Використання недорогих будівельних блоків забезпечує низьку ціну повної комп’ютерної системи разом із феноменально високої продуктивністю, досягнутої з допомогою комбінованої потужності процессорной сети.

Кожен процесор nCube 2 містить 14 каналів DMA 13 для сполук, у гиперкубе і одну для ввода/вывода. Виділений канал ввода/вывода врівноважує обчислювальну продуктивність процесора з продуктивністю його системи ввода/вывода. Принаймні додавання процесорів до системи пропускну здатність системи ввода/вывода гиперкуба масштабується разом із процессорной потужністю і пам’яттю. До складу процесора nCube 2 входить високошвидкісне пристрій маршрутизації повідомлень, яке управляє передачею повідомлень між процесорами. Пристрій маршрутизації забезпечує пряму передачу повідомлень без переривання проміжних процесорів чи необхідності зберігання даних сполучення їх пам’яті. Повідомлення передаються зі швидкістю 2.75 МБ/сек на канал DMA. Спеціальні методи маршрутизації автоматично обчислюють найкоротшого шляху між процесорами і запобігають взаємну блокування повідомлень, звільняючи користувачів від виробничої необхідності планувати маршрути. Пристрій маршрутизації передає повідомлення так швидко, що кількість прохідних кроків впливає продуктивність набагато менше, ніж у сусідніх комп’ютерах. Висока швидкість передачі створює ілюзію, кожен процесор пов’язаний безпосередньо з іншою у мережі. Ефективність гиперкубической топології разом із високошвидкісним пристроєм маршрутизації створюють високопродуктивну систему межпроцессорных сполук з максимальною, проти іншими процессорными мережами, швидкістю межпроцессорных комунікацій. Суперкомп’ютер серії nCube 2 з 8192 процесорами має швидкість межпроцессорной передачі 577 ГБ/сек.

Кожен процесор nCube 2 виконує своє власне программируемую послідовність команд і може функціонувати незалежно. Цей принцип дозволяє виділяти підмножини процесорів для паралельного виконання різних операцій. Таке розбивка гиперкуба перетворює суперкомп’ютер nCube 2 в многопользовательскую, многозадачную систему. Програмне забезпечення nCube 2 виділяє набір процесорів — подкуб — для програми користувача і завантажує її. Протягом необхідного часу кожна така подкуб функціонує як комп’ютер. Користувачі можуть змінювати розміри подкубов відповідно до вимогами своїх программ.

2.3 Архітектура процесора nCube Процесор nCube, як випливає з загального призначення системи, орієнтований насамперед речові обчислення. За один такт генератора його речовинне арифметичне пристрій виконує дві операції, тоді як целочисленное — одну. У цьому речовинний конвеєр полягає лише з двох щаблів (за іншими архитектурах число щаблів речовинного процесора від трьох сьомої). Висока доступність кешу на кристалі процесора забезпечує практично пікові показники ефективності навіть при обробці довгих векторів, розміщених у пам’яті. На кристалі розташовані регистровый файл і двоє кешу по 16 КБайт кожен: розділені кеш команд і кеш даних. Швидкість доступу до внутрішнього кэшу становить 1.6 ГБайт/сек, а більшої ефективності обслуговує його спеціальний конвеєр. Доступ до кэшу здійснюється за фізичному адресою, щоб уникнути непотрібних переміщень даних у разі перемикання контекста.

Процесор nCube включає у собі повну підтримку віртуальної пам’яті. У основу архітектури закладено 64-разрядное полі віртуального адреси, хоча у час реалізований 48-разрядный віртуальний адресу, який би адресацію 256 ТБайт. Розміри сторінок може мати перемінні розміри від 256 Байт до 64 МБайт. а) Система ввода/вывода nCube 2.

Високопродуктивної обчислювальної системі має відповідати потужна, швидка і гнучка система ввода/вывода. У суперкомп’ютері nCube 2 система ввода/вывода використовує той самий VLSIпроцесор, який функціонує як обчислювальний елемент в гиперкубической мережі. канонів DMA в процесорах системи ввода/вывода використовують як шляху передачі. Наявність виділених процесорів ввода/вывода дозволяє здійснювати паралельну роботу обчислювальної сіті й системи ввода/вывода.

Система ввода/вывода масштабується разом із процессорной мережею. Суперкомп’ютер великого розміру має тільки більше обчислювальних процесорів, а й більше процесорів ввода/вывода. nCube 2 підтримують кілька інтерфейсів ввода/вывода, які забезпечують користувачів зв’язком із необхідними їм устройствами.

Плата ввода/вывода nChannel здійснює зв’язок суперкомп’ютера nCube 2 з пристроями вторинного зберігання, дисками, магнітними стрічками, сітями та іншими пристроями. Плата nChannel має 16 незалежних каналів ввода/вывода, кожен із яких управляється процесором nCube 2. До кожного каналу підключається модуль ввода/вывода, наприклад, контролер SCSI. Кожен канал передає б дані з швидкістю 20 МБ/сек. З допомогою каналів плати nChannel система nCube 2 сполучається з хост-компьютером, мережею Ethernet, дисководами і накопичувачами на магнітної стрічці, і навіть модулями перетворення сигналів і передачі видеообразов.

Плата HIPPI дозволяє з'єднувати суперкомп’ютер nCube 2 коїться з іншими суперкомпьютерами, запоминающими пристроями й іншими системами, підтримують інтерфейс HIPPI (High Performance Parallel Interface Високопродуктивну паралельний інтерфейс). Плата HIPPI використовує 16 процесорів nCube 2 в обробці мережного трафіку, зазвичай 8 процесорів керувати введенням і побачили 8-го керувати висновком. Швидкість передачі сягає 100 МБ/сек.

Графічна підсистема реального часу nVision забезпечує інтегровану підсистему графіки і ввода/вывода, що дозволяє програмістам представляти і взаємодіяти з більшими на обсягами даних в часі. На платі nVision розміщені 16 процесорів nCube 2, 2 CRTконтролера, спеціальний текстовий процесор, 16 МБайт пам’яті і 2 МБайт буфера.

Комп’ютер nCube 2 з'єднується через мережу із керуючим комп’ютером, з якого користувачі завантажують nCube 2, розробляють і запускають паралельні програми, спостерігають за функціонуванням процессорной сіті й системи ввода/вывода. Стандартним управляючим комп’ютером для nCube 2 є робоча станція виробництва компанії Silicon Graphics.

2.4 Програмне обеспечение.

На всіх комп’ютерах сімейства nCube 2 встановлюється спеціалізована програмна середовище PSE (Parallel Software Environment), куди входять у собі такі компоненти: — операційна система nCX, яка за микроядерной технологій і выполняющаяся усім процесорах гиперкуба, вона управляє системою ввода/вывода; - драйвер хост-интерфейса, інтерфейс ввода/вывода для з'єднання з управляючим комп’ютером; бібліотека стандартних UNIX-функций; - кошти розробки для написання, компіляції, профілювання, налагодження, запуску і функцію контролю паралельних програм; - утиліти системного адміністратора; - підсистема інтерактивною (on-line) документации.

Середовище PSE забезпечує узгоджений щодо різноманітних моделей сімейства nCube 2 прикладної інтерфейс. Програми, розроблені для комп’ютерів з невеликим числом процесорів, не вимагають переробки при перенесення на систему nCube 2 більшого розміру. Операційна середовище nCube 2 інтегрована зі середовищем управляючого комп’ютера, забезпечуючи користувачів можливістю розробляти програми на звичної їм платформі. З допомогою PSE користувачі можуть працювати незалежно, одержуючи автономний контроль над виконанням своїх програм. Безліч користувачів можуть одночасно виконувати программы.

Середовище PSE виходить з nCX — высокооптимизированном, невеличкому (до 128 КБ) і швидкому микроядре (microkernel), що забезпечує сервіс ОС кожному процесорі, як гиперкуба, і системи виводу-введення-висновку. nCX підтримує управління процесами і управління пам’яттю, многозадачность, інтерфейс системних викликів UNIX System V Release 4, а також високопродуктивну систему передачі повідомлень. Інші операційні кошти, такі як драйвери ввода/вывода і мережні сполуки, розподіляють між обчислювальними вузлами і процесорами ввода/вывода. Операційна система nCX забезпечує єдиний інтерфейс для паралельних програм, тож драйверів ввода/вывода.

На суперкомп’ютерах nCube 2 підтримуються два виду програмування: SPMD (Single Program Multiple Data — Одна програма, Безліч даних): в процессорную мережу завантажується програми, кожен примірник програми обробляє свій власний набір даних; процесори можуть обмінюватися інформацією. MPMD (Multiple Program Multiple Data — Безліч програм, Безліч даних): в процессорную мережу завантажується набір програм, кожен примірник кожної програми обробляє свої власні дані; програми можуть обмінюватися информацией.

2.5 Надійність системи nCube 2.

Суперкомп’ютери nCube 2 представляють найнадійніші сьогоднішній день системи. Кожен аспект дизайну nCube 2 передбачає надійність. Наприклад, висока інтеграція — процесорний вузол однією чіпі зменшує число компонентів, у яких може відбутися збій. Бистре, ефективне микроядро забезпечує всі необхідні для додатків функції, не перевантажуючи систему складнішою, але менш надійної операційній средой.

3 МЕРЕЖА ЯК СУПЕРКОМПЬЮТЕР.

Теоретично суперкомп’ютер можна видати за об'єднання великого кількості звичайних комп’ютерів до одного, єдиний блок. Інакше це можна зробити уявити, як локальну мережу, має певна кількість вузлів щодо одного блоці. Отже, можна використовувати як суперкомп’ютера використовувати й будь-яку локальну (але тільки локальну) мережу. Починаючи з 1992 року у швидкості зростання продуктивності мережне устаткування обганяє процесори. Для багатьох організацій перспектива використання мереж робочих станцій та ПК в ролі суперкомп’ютерів дуже приваблива. Основні переваги мереж — можливість поступового розширення та модернізації, і навіть режим експлуатації мережі днем для звичайних потреб розробки та проектування, а вночі для розрахунків. Мережі що неспроможні змагатися за швидкістю обчислення з суперкомпьютерами-рекордсменами, але де вони на один-два порядки дешевший, їх можна використовувати там, де обсяги розрахунків великі, а суперкомп’ютери економічно не виправдані. Такі мережні технології сприятимуть використанню мереж як паралельних обчислювачів. Передусім це Fast Ethernet і Gigabit Ethernet. Далі йдуть технології комутації. І, нарешті, нові мережні протоколи, підтримують широковещание.

3.1 Паралельні програми — головний тормоз.

Головною перешкодою запровадження практично всіх паралельних архітектур є паралельних програм. У успадкованих від послідовного світу програм є недолік — великий обсяг коду, принципово що паралельного виконання. Його не можна подолати завдяки вдосконаленню техніки компіляції. Тож якщо програма половину часу займається діями, які слід здійснювати суворо послідовно, то паралельне виконання що залишилася половини граничному разі дасть лише дворазове прискорення. Через війну, хочемо ми цього чи немає, послідовні обчислювальні алгоритми доведеться заміняти параллельными.

3.2 MPI.

Практично усім паралельних системах були свої власні бібліотеки передачі повідомлень. У найпростішому випадку вони передбачали передачу і достойний прийом окремих пакетів між сусідніми процесорами. Більше складні підтримували передачу повідомлень довільній довжини, маршрутизацію повідомлень і апарат тегов, що дозволяє приймаючої боці самої вирішувати, як і послідовності обробляти вступники повідомлення. Деякі бібліотеки допускали динамічний породження і знищення процессов.

Останніми роками у справі створення ПЗ для систем з розподіленої пам’яттю намітився серйозного прогресу. Найбільшим досягненням була стандартизація інтерфейсу передачі повідомлень MPI (message passing interface). По-перше, MPI підтримує кілька режимів передачі, найважливіші у тому числі: синхронна передача, яка потребує виділення проміжних буферів для даних, і забезпечує надійну передачу даних як завгодно великого розміру, і асинхронна передача, коли він надсилає повідомлення процес не чекає початку набору, що дозволяє ефективно передавати короткі повідомлення. По-друге, MPI дозволяє передавати дані тільки від процесу до іншого, а й підтримує колективні операції: широкомовну передачу, разборку-сборку, операції редукції. По-третє, MPI передбачає гетерогенні обчислення. Обчислювальна система може охоплювати різні процесори, зокрема мають різні набори команд і різне уявлення даних. Коли ви є суперкомп’ютер, це здається зайвим, але для організацій, експлуатують мережі робочих станцій з різними процесорами і версіями Unix, — це находка.

Синтаксис MPI полегшує створення додатків у моделі SPMD (single program multiple data) — програми працює у різних процесах зі своїми даними. Одна й та функція викликається на узле-источнике і вузлахприймачах, а тип виконуваної операції (передача чи прийом) визначається за допомогою параметра. Такий синтаксис викликів робить SPMD-программы істотно компактніші, хоч і важче для понимания.

Основне відмінність стандарту MPI з його попередників — поняття комунікатора. Усі операції синхронізації і передачі повідомлень локалізуються всередині комунікатора. З комунікатором пов’язується група процесів. У частковості, все колективні операції викликаються одночасно усім процесах, які входять у цю группу.

Підтримка модульного програмування разом із незалежністю від апаратури дала потужний імпульс до створення бібліотек. Однією з цікавих розробок — пакет лінійної алгебри ScaLAPACK, розроблений групою Дж. Донгарра.

3.3 Реалізації MPI.

Бібліотеки MPI реалізовані на всіх сучасних суперкомп’ютерах, приміром, в університеті Коимбра (Португалія) розробили бібліотеку MPI для Windows 95 (internet яка особливо цікава для викладачів і, оскільки за налагодженні достатньо лиш мати звичайний ПК, а запуск паралельних додатків у мережі дозволяє їм отримати реальний виграш в производительности.

Практичний досвід показує, що ідеально распараллеливаемые завдання, такі як паралельне множення матриць, можна вирішити на будь-яких мережах, і додавання навіть щодо слабких обчислювальних вузлів дає виграш. Інші завдання, зокрема рішення систем лінійних рівнянь, вимогливіші до комунікаційному устаткуванню і якістю реалізації передачі повідомлень. Саме тому тести з оцінки реального швидкодії паралельних обчислювальних систем базуються на паралельних аналоги відомого пакета Linpack. Так, система лінійних рівнянь розміром 800×800 вирішується на чотирьох комп’ютерах Sun SPARCstation 5, об'єднаних мережею Ethernet 10 Мбіт/c, швидше, ніж трьох; на п’яти — приблизно через те водночас, що й чотирьох, а додавання шостого комп’ютера однозначно погіршує продуктивність обчислювальної системи. Якщо замість Fast Ethernet 10 Мбіт/c використовувати Fast Ethernet 100 Мбіт/с, що лише трохи збільшує загальну вартість системи, час, затрачуване на комунікацію, зменшується майже 10 раз, а рішення даного завдання можна буде потрапити ефективно застосовувати вже десятки робочих станций.

3.4 Кошти програмування високого уровня.

Часто у мережах окремі комп’ютери нерівноцінні, і можна буде навантажувати їх по-різному, проте найпростіша програма, враховує баланс навантаження, — якщо кодувати її, використовуючи лише MPI, — стає неосяжної, і налагодження небагато кому виявиться під силу. Так, матриці у пакеті SсаLAPACK, незалежно від розв’язуваної завдання й потужностей обчислювальних елементів, завжди розподіляються по процесорам рівномірно. Через війну, за наявності хоча б однієї слабкої комп’ютера у мережі, обчислення затягуються — все чекають відсталого. Динамічна балансування навантаження, практично безплатно получающаяся на SMP-компьютерах, в розподілених системах надзвичайно важка, і навіть просте розподіл даних відповідно до потужностями вузлів й наступні пересилки кодуються дуже непросто.

Виходом з такого становища стали мови програмування, засновані на паралелізмі даних. Перший, Fortran-D, виник 1992 р. На зміну їй прийшов High Performance Fortran (HPF), що становить собою розширення мови Fortran 90 і який від користувача лише вказати розподіл даних із процесорам. У іншому програма має послідовний вид (це, втім, значить, що, вигадуючи алгоритм, годі було думати властивому йому паралелізмі). Транслятор самостійно розподіляє обчислення по процесорам, обираючи як вузла, у якому слід обчислення, той процесор, у якому буде використано результат обчислення висловлювання. За необхідності транслятор генерує звернення до бібліотеці передачі повідомлень, наприклад MPI. Від компілятора HPF потрібно ретельний аналіз програми. Користувач практично немає ніякого важелів керування кількістю пересилань, а оскільки ініціалізація кожної пересилки, незалежно від обсягу переданої інформації, — це десятки тисяч машинних тактів, якість одержуваної програми від цього залежить слабо.

У мові програмування mpC (internet — розширенні ANSI Cи — прийнято компромісний підхід. Тут користувач розподіляє як дані, а й обчислення. Змінні і масиви розподіляються по віртуальним мереж (networks) і подсетям, причому у описах мереж вказуються відносні потужності вузлів і швидкості перетинів поміж ними. У процесі виконання mpC-программы система підтримки мови прагне максимально ефективно відобразити віртуальні мережі на групи процесорів. Через війну користувач має можливість рівномірно навантажувати узлы.

3.5 Спроба прогноза.

Використання мереж комп’ютерів для обчислювальних завдань — вже нині справа цілком реальна. У напрямі ведуться наукові розробки та зроблено ряд пілотних проектів. Як комунікаційної платформи зараз найбільш економічно виправдано застосування коммутируемых мереж Fast Ethernet. У цьому собівартість системи продуктивністю 1,5−6 операцій з речовими числами в секунду на завданнях лінійної алгебри буде вже ніколи 100 тис. дол. Років через два як комунікаційної платформи можна використовуватиме Gigabit Ethernet чи ATM (Asynchronous Transfer Mode — асинхронний режим передачі), щоб забезпечити значно вищі швидкості передачі. Протягом одного-двох років мають з’явитися загальновизнані широкомовні протоколи транспортного рівня життя та засновані ними реалізації MPI. На рівні прикладних програм MPI використовуватися нічого очікувати. Нею стануть базуватися лише ті бібліотеки й системи підтримки мов, засновані на паралелізмі данных.

4 ПИМЕРЫ ВИКОРИСТАННЯ СУПЕРКОМПЬЮЮТЕРОВ.

4.1 Моделювання побудова белка.

Корпорація IBM оголосила у тому, що планує виділити 100 мільйонів доларів створення найшвидшої у світі суперкомп’ютера, який використовуватися для моделювання побудови білка з аминокислот.

Новий суперкомп’ютер, що носить назву Blue Gene, в змозі здійснювати один квадриллион операцій на секунду, тобто буде зацікавлений у тисячу разів міцніше знаменитого Deep Blue, з що у 1997 року грав у шахи чемпіон світу Гаррі Каспаров.

Blue Gene працюватиме основі мільйона процесорів, кожен у тому числі здатний здійснювати мільярд операцій на секунду, повідомляють представники IBM. Новий гігант буде зацікавлений у 2 мільйони раз швидше, ніж які існують наймогутніші персональні компьютеры.

Дослідники розраховують досягти цього рівня потужності протягом п’яти, після чого суперкомп’ютер використовуватиметься в генетичному моделюванні. Якщо Blue Gene виправдає покладені нею надії, створення стане величезним кроком уперед, у області здоров’я та биологии.

4.2 Віртуальне башня.

За оцінками Федерального управління цивільної авіації США, протягом найближчих 20 років кількість літаків, що використовуються комерційних польотів, збільшиться вдвічі. Це стане серйозним випробуванням для авіадиспетчерів, кому доведеться впроваджувати нові технологіії управління авіаційними потоками як у землі, і у воздухе.

НАСА вирішило внести свій скромний лепту в подолання цієї існують, та створило стимулятор справжньої вежі авіадиспетчерів вартістю $ 110 мільйонів. Вежа FutureFlight Central лежить у Дослідницькому центрі Еймса НАСА. Вона надає можливість симулювати роботу найбільших аеропортів світу, дозволяючи у часі відчувати нові технологіії управління переміщенням літаків. Ця двоповерхова спорудження, у якому можуть одночасно працювати 12 операторів. Мозговим центром вежі є 16-процессорный суперкомп’ютер Reality Monster від SGI, обійшлося НАСА в $ 1 мільйон. Саме він забезпечує висновок симуляції на 12 величезних видеоэкранов вежі, які імітували справжні вікна. Суперкомп’ютер дозволяє моделювати — крім обстановки аеропорту — погодні ефекти і по 200 одночасно рухомих літаків і машин наземного обслуговування. Перший поверх призначений для «пілотів «і «обслуговуючого персоналу », які вносити додатковий елемент реалістичності, спілкуючись зі авіадиспетчерами з допомогою портативних радіостанцій. Вежа він може вживатись і в інших імітаційних цілях. Зокрема, планується, що її послугами зможуть скористатися фахівців із Відділення автономних роботів НАСА для створення кімнат управління міжпланетними місіями, які з роботизированных машин.

ВИКОРИСТОВУВАНА ЛИТЕРАТУРА:

1. Стаття Андрія Шитова «Електронний супермозг», журнал «Відлуння планеты».

№ 4 1992г.

1. Стаття Дмитра Арапова «Чи можна перетворити мережу суперкомп’ютер?», журнал «Відкриті системи» № 4 1997г.

1. Стаття М. Дубової «Суперкомп'ютери nCube», журнал «Відкриті системы».

1. Рубрика «Новини» з журналів КомпьюТерра.

Показати весь текст
Заповнити форму поточною роботою