Подход к представлению областей работоспособности на основе радиально-базисной нейронной сети

Тип работы:
Реферат
Предмет:
Общие и комплексные проблемы естественных и точных наук


Узнать стоимость

Детальная информация о работе

Выдержка из работы

УДК 681.5. 015. 23 Назаров Д. А.
Институт автоматики и процессов управления ДВО РАН, Владивосток, Россия
ПОДХОД К ПРЕДСТАВЛЕНИЮ ОБЛАСТЕЙ РАБОТОСПОСОБНОСТИ НА ОСНОВЕ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ
Одной из основных трудностей построения областей работоспособности аналоговых технических систем, помимо размерности пространства и вычислительной сложности, является отсутствие явных аналитических выражений в модели исследуемой системы, которая часто задается в алгоритмическом виде. В таком случае для исследования области допустимой вариации параметров доступен метод поточечного исследования области в виде многомерного зондирования, заключающегося в вычислении выходных характеристик системы, проверке их соответствия требованиям для различных значений параметров элементов системы.
1. Определение области работоспособности
Объектом исследования является модель проектируемой системы, связывающая вектор:
У = (У1, Ут), (1)
выражающий выходные характеристики, интересующие потребителя, с вектором параметров составляющих ее элементов:
x = (xj, x2,…, xn). (2)
Модель системы отражает зависимость вектора (1) от вектора (2)
У, — = Уі(xX & quot-i = J, 2,…, т, (3)
которая обычно задается алгоритмически в виде численного решения системы дифференциальных уравнений или имитационной модели и реализует концепцию «черного ящика».
На выходные характеристики (1), как правило, налагаются определенные в техническом задании требования
У min? У (Х)? У max, (4)
которые называются условиями работоспособности (УР).
Ограничения (4) определяют в пространстве параметров элементов область
Dx = {Х Є R П|У mm? У (Х)? У max}
(5)
которая называется областью работоспособности [2].
Возможность проверки принадлежности некоторого набора параметров x этой области, т. е
x є Dv
вместо проверки условия (4) существенно снижает вычислительные затраты на этапе параметрического синтеза в процессе проектирования [1]. Получение характеристик этой области является отдельной самостоятельной задачей и сопряжено с рядом трудностей, таких как большая размерность пространства параметров, отсутствие априорной информации о конфигурации этой области, а также отсутствие явных аналитических зависимостей в модели (3).
Один из способов получения характеристик области (5) основан на аппроксимации многомерной области дискретным множеством элементарных параллелепипедов, заданных регулярной сеткой внутри области допусков (Рис. 1). Такой способ представления области достаточно громоздкий и требует много ресурсов в случае размерности пространства параметров более 10.
Рис. 1. Аппроксимация О Р дискретным множеством параллелепипедов
Данная работа посвящена исследованию возможности применения нейросетевого подхода к представлению ОР. Функция обученной нейронной сети заключается в указании, находится ли произвольный вектор параметров внутри ОР в соответствии с бинарной функцией принадлежности (б):
F (x) =
Обучающая выборка ИНС состоит из случайных векторов пространства внутренних параметров и соответствующих им значений функции (б):
(x, F (x)}. (7)
2. Структура радиально-базисной ИНС
Для проверки нахождения набора параметров системы внутри ОР предлагается использовать искусственную нейронную сеть (ИНС) с радиально-базисными активационными функциями (РБФ).
Топология этой ИНС приведена на рис. 1 [3].
I1, У min? y (x)? У max 10, иначе
Рис. 2. Структура радиально-базисной ИНС
Входами ИНС являются нормированные компоненты вектора передаются на все нейроны скрытого слоя, которые имеют Активационная функция нейронов скрытого слоя имеет вид:
(х — с, —)2'-
vt (х) = expI —

(2) параметров системы. Эти значения активационные функции радиального типа.
(8)
где с, — радиальный центр i-го нейрона. Как нетрудно видеть, функция (8) изменяется радиально
относительно этого центра и в нем достигает своего максимума (рис. 3).
Выход ИНС формируется, главным образом, за счет взвешенной суммы активационных функций от значения текущего входного вектора:
u (w, х) = w ¦ v1(x) + w2 ¦ v2(x) +… + wK ¦ vK (x). (9)
Активационная функция выходного нейрона сети f (u (w, х))Є {0,1} имеет вид единичного скачка:
f (u (w, х)) =
1, u (w, х) & gt- в
(10)
|0,u (w, х) & lt-в
где параметр вє (0,1), определяющий значение порога, задается из условий задачи. Аргументом
функции (10) является взвешенная сумма (9). Вектор w = (w^ w2,…, Wk) Т содержит весовые коэффициенты выходов радиально-базисных нейронов. Обучение такой ИНС заключается в подборе весовых
коэффициентов таким образом, чтобы выход сети для указанного вектора хр был равен значению
функции Я (хр) или суммарная ошибка сети не превышала некоторой допустимой погрешности? :
Z f (u (w, хр)) — F (хp)|? ? ,
p=1
(11)
P
где P — количество обучающих примеров (7).
Каждая i-я радиальная функция (8) имеет свой уникальный центр с,, а также в общем случае может иметь отличное от других значение параметра рассеяния s. В качестве центров радиальных функций в данной работе предлагается использовать узлы регулярной сетки (рис. 4), используемой при
аппроксимации ОР множеством элементарных параллелепипедов [2].
Для этого необходимо располагать следующими данными: значения границ допусков х^п? х? хтах —
количество шагов q, V, = 1,2,…, n по каждому параметру-
Рис. 4. Сеточное расположение центров радиальных нейронов.
Обладая этой информацией, можно вычислить координаты центра каждого радиального нейрона, заданного набором индексов (kj, kn). Для этого необходимо вычислить шаг сетки ht по каждому
параметру: ht = (xfmax — xfmln)/q, а координаты радиального центра С, каждого j-го нейрона вычисляются соответственно этим индексам:
СЛ = X mln + ki ¦ hi, n. (12)
Формулы перехода от набора n индексов (kj, k^,…, kn) к одномерному индексу j нейрона и обратно, которые использовались при построении области с помощью дискретного множества элементарных параллелепипедов, приведены в работе [2].
Обучение рассмотренной выше ИНС можно проводить любым доступным методом. Одним из простых способов является матричный [3], основывающийся на вычислении вектора весовых коэффициентов
w = (Wj, w2,…, wK) T из системы уравнения:
Wj • Vjj + w2 • Vj2 +. + wk • V1K = FJ
W1 • V21 + W2 • V22 +.. + WK • V2K = F2, (13)
W1 • VP1 + W2 • VP2 +. + WK • VPK = FP
где Vj = Vj (Xj) — выход (8) j-го радиального нейрона на i-м обучающем примере хг-, Ft = F (хг-) -ожидаемый выход ИНС согласно функции (6). Значения выходов Vj радиальных нейронов формируют матрицу V, тогда система (13) запишется в векторном виде как:
V • w = f, (14)
а ее решение:
w = V-1 • f, (15)
при этом матрица V должна иметь размерность KXK и удовлетворять условиям нахождения обратной ей матрицы.
Другим способом обучения ИНС может быть итерационный метод уточнения весовых коэффициентов Видроу-Хоффа [3]. Матричный метод может быть неприемлем в случае большой размерности пространства параметров и достаточно мелкого шага сетки. Например, в случае четырехмерного пространства параметров и количестве шагов, равного 10, нейронов скрытого слоя будет 104, что вызывает вычислительные затруднения при построении обратной матрицы. Итерационный метод подбора весовых коэффициентов может занять продолжительное время в зависимости от выбранной точности.
3. Применение ИНС к задаче построения ОР
В качестве примера рассматривается модель транзисторно-транзисторной логики (ТТЛ) [2]. На
рисунках 5 (а, б, в, г) приведены сечения фигуры, аппроксимирующей ОР, построенной с помощью дискретного множества элементарных параллелепипедов (показано темными квадратами) и с помощью обученной радиально-базисной ИНС (показано светлыми точками).
Рис. 5. Сечения О Р, построенной с помощью множества гиперпараллелепипедов и ИНС.
Темные точки на иллюстрациях являются ошибочными, поскольку по результатам расчета модели в них не выполняются условия работоспособности (4).
4. Выводы
Идея использования ИНС при построении ОР удачно подходит к процессу многомерного зондирования области поиска. Использование имитационных моделей, реализующих концепцию «черного ящика», не вызывает затруднений в построении процесса обучения ИНС. Однако стоит отметить, что использование радиально-базисных ИНС не менее трудоемко и громоздко. Достаточное качество аппроксимации требует хранения данных с параметрами нейронов ИНС по объему не меньше, чем хранение данных представления ОР дискретным множеством гиперпараллелепипедов. При этом в режиме проверки попадания произвольного вектора в ОР в случае использования ИНС потребуется значительно больше вычислений, чем при использовании дискретного множества параллелепипедов, поскольку для получения выхода сети, потребуется вычислить K функций вида (8), а затем выполнить взвешенное суммирование (9).
В приведенном примере с сеточным расположением радиальных центров, используемой для аппроксимации ОР параллелепипедами, обучение ИНС на одном процессоре выполнялось в среднем в 5788,6 раз дольше, чем аппроксимация параллелепипедами. При этом статистические испытания показали, что ошибка аппроксимации параллелепипедами составляет 9%, а ИНС — в среднем 12. 6%.
ЛИТЕРАТУРА
1. O.V. Abramov, Y.V., Katueva, and D.A. Nazarov, & quot-Reliability-Directed Distributed Computer-Aided Design System,& quot- Proc. Of the IEEE International Conference on Industrial Engineering and Engineering Management. Singapore, 2007, pp. 1171 — 1175.
2. Катуева Я. В., Назаров Д. А. Аппроксимация и построение областей работоспособности в задаче параметрического синтеза. Международный симпозиум «Надежность и качество». — Пенза: ПГУ. 2005, С. 130 — 134.
3. Осовский С. Нейронные сети для обработки информации / Пер. С польского Д. И. Рудинского. — М. :
Финансы и статистика, 2002.

ПоказатьСвернуть
Заполнить форму текущей работой