Каскадная эволюционная нейронная сеть с нео-фаззи-нейронами в качестве узлов

Тип работы:
Реферат
Предмет:
Кибернетика


Узнать стоимость

Детальная информация о работе

Выдержка из работы

працюють в найбільш завантажену зміну- Фт — річний фонд робочого часу одного робочого місця, г.
Запропонований показник по аналогії з розповсюдженим коефіцієнтом використання поста можна назвати коефіцієнтом використання виробничої бази підприємства.
Рівень використання виробничої бази підприємства можна порівнювати з аналогічним коефіцієнтом отриманим за результатами розрахунків коефіцієнтів подібних автосервісних підприємств за такою формулою:
Rg =
NR,
(8)
де Я® — середній по групі підприємств галузі рівень використання виробничої бази- N — кількість підприємств галузі, показники яких порівнюються-. _4ЯЬ — сума показників рівня використання виробничої бази по N підприємствам.
При Я® & gt-1, на підприємстві використання
виробничої бази більш ефективне ніж в середньому по групі однотипних підприємств. При Я® & lt-1 підприємство відстає від інших підприємств галузі за рівнем використання виробничих потужностей.
Висновки
При використанні системи оціночних показників необхідно мати можливість аналізувати причинно-наслідкові зв’язки функціонування виробничого процесу, використовувати співвідношення між технічними, технологічними і фінансовими параметрами. Мати механізм зворотного зв’язку.
В систему показників необхідно включати показники трьох груп: показники стану, потенціалу і результативності виробничого процесу.
Література
Пеньшин, Н. В. Эффективность и качество как фактор конкурентоспособности услуг на автомобильном транспорте: монография Н. В. Пеньшин — под науч. ред. В. П. Бычкова. — Тамбов: Изд-во Тамб. гос. техн. ун-та, 2008. — 224 с.
Волгин, В. В. Автомобильный дилер: практическое пособие по маркетингу и менеджменту сервиса и запасних частей.- М.: Ось-89, 1997−224с.
Кузнецов, Е. С. Управление техническими системами. Учебное пособие/ МАДИ (ТУ). — М.: Моск. автом-дорожн. ин-тут, 1998. — 202 с
Всеобщее Управление качеством: Учебник для вузов / О. П. Глудкин, Н. М. Горбунов, А. И. Гуров, Ю. В. Зорин- Под ред. О. П. Глудкина. — М.: Радио и связь, 1999. — 600 с.: ил.
Дана загальна характеристика вволюційним нейронним мережам та описані недоліки існуючих архітектур. Показані переваги нео-фаззі-нейронів та вволюційної нейромережі на іх основі над каскадно-корреляційною архітектурою Фальмана-Леб'єра
Ключові слова: нео-фаззі-нейрон,
каскад, мережа, апроксимація
?----------------------------------?
Дана общая характеристика эволюционным нейронным сетям и описаны недостатки существующих архитектур. Показаны преимущества нео-фаззи-ней-ронов и эволюционной нейросети на их основе над каскадно-корреляционной архитектурой Фальмана-Лебьера
Ключевые слова: нео-фаззи-нейрон, каскад, сеть, аппроксимация
?----------------------------------?
This article represents a general picture of the evolutionary neural networks and a short overview of existing architectures. The advantages of the neo-fuzzy-neurons and evolutionary neural networks based on them described below and compared with cascade-correlation architecture of Fahlman-Lebiere Key words: neo-fuzzy-neuron, cascade, network, approximation -----------------? ?---------------------
УДК 004. 032. 23
КАСКАДНАЯ ЭВОЛЮЦИОННАЯ НЕЙРОННАЯ СЕТЬ С НЕО-ФАЗЗИ-НЕЙРОНАМИ В КАЧЕСТВЕ УЗЛОВ
Е.В. Бодянский
Доктор технических наук, профессор* Контактный тел.: (057) 702−18−90 Е-mail: bodya@kture. kharkov. ua
В.В. Волкова
Кандидат технических наук, ассистент* Контактный тел.: (057) 702−18−90 Е-mail: volkovavv@gmail. com
С.Д. Громов
Контактный тел.: (057) 700−23−81, 050−403−84−98
Е-mail: madihol@ukr. net *Кафедра искусственного интеллекта Харьковский национальный университет радиоэлектроники пр. Ленина, 14, г. Харьков, Украина, 61 166
-у5
1. Введение
В настоящее время искусственные нейронные сети широко применяются в обработке информации, заданной в виде временных последовательностях или цифровых таблиц «объект-свойство», сгенерированных нестационарными хаотическими или стохастическими системами. Наиболее привлекательные свойства искусственных нейронных сетей проявляются в их аппроксимирующих способностях и обучаемости. Также очень важным преимуществом нейронных сетей является возможность решения задачи распознавания образов.
Как хорошо известно, главным недостатком искусственных нейронных сетей является неинтерпре-тируемость полученных результатов, т. е. обученная нейронная сеть является «чёрным ящиком». Интерпретируемость и прозрачность вместе с обучающимися способностями — главные свойства нейро-фаззи- и нео-фаззи-систем.
В настоящей работе предпринимается попытка синтеза новой вычислительной интеллектуальной системы. Эта система имеет каскадную архитектуру, использует узлы с нечёткой логикой и может быть обучена с помощью усовершенствованных процедур оптимизации. Использование нео-фаззи-нейронов в качестве элементов этой сети — наиболее уместно в данной ситуации. Они позволяют получить высокую аппроксимирующую точность, а их вычислительная реализация довольно проста. В качестве критериев обучения, помимо критерия наименьших квадратов, рассмотрены корреляционный критерий Фальмана-Лебьера и критерий распознавания образов Шинка.
2. Архитектура эволюционной нейронной сети
Традиционно под обучением понимается процесс настройки синаптических весов нейронной сети в зависимости от выбранных процедур оптимизации и критерия обучения. Качество полученных результатов может быть улучшено не только настройкой весовых коэффициентов, но и изменением архитектуры нейронной сети (количество узлов). Существует два базовых способа настройки архитектуры нейронной сети:
1) «конструктивный подход» — начинается с простой архитектуры и постепенно добавляются новые узлы в процессе обучения- 2) «деструктивный подход» — начинается с избыточной сети и затем в процессе обучения, идёт упрощение архитектуры этой сети.
Очевидно, для конструктивного подхода требуется меньше вычислительных ресурсов, в рамках этой технологии как весьма эффективные можно выделить каскадные нейронные сети. Наиболее эффективным представителем каскадных нейронных сетей является каскадно-корреляционная архитектура.
Эта сеть стартует с самой простой архитектуры, состоящей из одного нейрона. Во время процедуры обучения новые нейроны добавляются в сеть, формируя многослойную структуру. Важно, что в течение каждой эпохи обучения только один нейрон последнего каскада подвержен настройке. Все предыдущие нейроны обрабатывают информацию с «замороженными»
весами. Авторы каскадно-корреляционной архитектуры Фальман и Лебьер [1], выделяют высокую скорость процедур обучения и хорошие аппроксимирующие свойства этой сети. Нами предлагается в каскадную архитектуру вместо традиционных персептронов Ф. Розенблатта использовать нео-фаззи-нейроны.
Нео-фаззи нейрон с несколькими входами и одним выходом, изображен на рис. 1. Он реализует отображение
у=]Сг. (х.) (1)
1=1
где Xi — ?-й вход (= 1, 2,… п), у — выход. Структурные
блоки нео-фаззи-нейронов являются нелинейными -и выполняют преобразование ?-го входного сигнала в виде
^(х.) = Х^Мх& gt-
: =1
реализуя правило нечеткого вывода
№ х1 ш X. ТН '-тТНЕО иТР иТ1
где Хц является нечетким множеством, Wij — синаптический вес. Как легко видеть, нелинейные синапсы на самом деле реализованы с помощью нечеткого вывода нулевого порядка Такаги-Сугено.
Условно функции принадлежности Су являются элементарными треугольными функциями, как показано на рис. 2.
Рис. 1 — Нео-фаззи нейрон
Для предварительно нормированных входных переменных Хi (обычно от 0 до 1) функция принадлежности может быть записана в форме:
Х1 с: -1,1 г ]
--------, Х еГсМ, 1'ся ]
с" - с-11 1 1 -1
, Х 41+1,. ]
0, в остальных случаях
где С — достаточно произвольно выбранные центры соответствующих функций принадлежности.
Как правило, они равномерно распределены на интервале [0, 1]. Это способствует упрощению процессов обработки информации, что
^,(х,) + Цм,(х,) = 1
Рис. 2. Треугольные функции принадлежности
Таким образом, выходной сигнал нелинейного синапса может быть записан в очень простой форме
) = '-Кцтц (хд+)
Выходной же сигнал нео-фаззи-нейрона в целом при этом имеет вид
у (к) =? (х- (к)) = ^ ]^]-(к — 1) ц]- (х- (к))
,=1 ,=1 ]=1
Суммируя f?(x?), производится у-выход из уравнения (1). Когда вектор сигнала х (к) = (х4 (к), х2 (к) …
… хп (к)) (здесь к = 1, 2,. п, является дискретным временем) подается на вход нео-фаззи нейронов, выход этого нейрона определяется как функции принадлежности Х-(к) и перестраиваемый синаптической веса & quot-«?. ?(к), которые были получены в предыдущие эпохи подготовки.
Среди наиболее важных преимуществ нео-фаззи-нейрона можно отметить высокую скорость обучения, вычислительную простоту, возможность нахождения глобального минимума критерия обучения в режиме реального времени. Критерием обучения (целевой функцией) является стандартная локальная квадратичная функция ошибки
Е (к) = 1(у (к) — у (к))2 = 1е (к)2 =1
2
У (к) -ХХ ^11(Х!(к)) 1=1 3=1
минимизируемая с помощью обычного градиентного шагового алгоритма
Wj1(k +1) = Wj1(k)+пе (к + 1)^,(х,(к +1)) =
= Wji (k)+п
У (к +1)-?? wji (k)цj-(X-(k +1))
=1 j=1
где у (к) — целевое значение выходной переменной, п является скалярным параметром скорости обучения.
С целью увеличения скорости обучения может быть использован одношаговый алгоритм Уидроу-Хоффа
/1 /1 ч У (к +1) — wT (k)ц (x (k +1)) …
w (k +1) = w (k) + ^----$----,, 2-------Ц (х (к +1)) (2)
||ц (х (к +1))
где
ц (х (к +1)) = (ц11(х1(к +1)),…, Цк1(х4(к +1)),… …, цЬ2(х2(к + 1)),…, ц (х,(к + 1)),…, Цкп (хп (к + 1))т
или его модификации [2,3]
w (k +1) = w (k) + г-1(к + 1)(у (к +1) -^т (к)ц (х (к + 1)))ц (х (к +1)) г (к + 1) = аг (к) + ||ц (х (к +1))||2,0 & lt- а & lt- 1
(3)
которая обладает как сглаживающими, так и фильтрующими свойствами.
Каскадная архитектура, построенная на нео-фазз-нейронах и показанная на рис. 3, реализует следующее отображение
— нео-фаззи-нейрон первого каскада
у11'- = Ё Е1'-^)
1=1 ]=1
— нео-фаззи-нейрон второго каскада
у[2|=1: в^>-^5(х-)+:гw^2n+1^. п+1(у[1-)
1=1 3=1 3=1
— нео-фаззи-нейрон третьего каскада
У[3| = ! ЕЧ8К (х-)++1(у[11)+М+#,=+2(у[21)
1=1 3=1 3=1 3=1
нео-фаззи нейрон м-го каскада
п Ь п+т-1 Ь
у[т|=Ё+? ^'т'-Му11-п|) (4)
1=1 3=1 1=п+1 3=1 4 '-
МхД +1))
Рис. 3. Архитектура каскадной нео-фаззи-сети
Е
тров, и важно, что все из них линейно входят в описание системы. В более компактном виде отображение, реализуемое данной сетью, может быть записано как
y[m| = w[m| Vm|
3. Алгоритмы обучения
В задачах распознавания образов, кроме квадратичных критериев могут быть использованы и иные функции. При этом нас интересует не только значение У, но его значение.
Используя в качестве целевой функции критерий Шинка,
Е[т1 (к) = у (к)у[т1 (к) — |у[т1 (к) =
= у (к) — signw[m1 Тц[т1 (к)К[т1 Тц[т1 (к) приводит к процедуре обучения
w[m](k) = w[m](k-1) +п (к)(у (к) —
-signw[m]T (k — 1) ц[т](к))ц[т](к) или ее модификации
(k) = w[m](k -1) +
+П (к)
y (k) — signw[m]T (k — 1) ц[т](к)
ц[т](к)
ц[т](к)
где обучающий сигнал у (Ъ) может принимать только два значения ±1.
Эксперимент показал, что данные алгоритмы обучения каскадной нео-фаззи-сети значительно превосходят корреляционный алгоритм [4] по скорости и может обучаться как в пакетном режиме, так и в последовательном.
4. Выводы
Таким образом, в ходе работы была сделана попытка синтеза новой системы вычислительного интеллекта. Эта система имеет каскадную архитектуру, использует узлы с нечёткой логикой и может быть обучена с помощью усовершенствованных процедур оптимизации. Использование нео-фаззи-нейронов в качестве элементов этой сети улучшает её реализацию и позволяет получить высокую аппроксимирующую точность. В качестве критериев обучения, помимо критерия наименьших квадратов, целесообразно использовать и критерий распознавания образов Шинка.
Эксперимент показал, что предлагаемый алгоритм обучения каскадной нео-фаззи-сети превосходит каскадно-корреляционный алгоритм по скорости и может обучаться как в пакетном режиме, так и в последовательном (адаптивном) режиме.
Литература
1. Fahlman S. E. The cascade-correlation learning architecture [Текст] / Fahlman S. E., Lebiere C. // Advances in Neural Information Processing Systems. — San Mateo, CA, 1990. — P. 524 — 532.
2. Бодянский Е. В. Искусственные нейронные сети: архитектура, обучение, применение. / Бодянский Е. В., Руденко О. Г. -
Харьков: ТЕЛЕТЕХ, 2004. — С. 372.
3. Bodyanskiy Ye., Kokshenev I., Kolodyazhniy V. An adaptive learning algorithm for a neo-fuzzy neuron // Proc. 3rd Int. Conf. of
European Union Soc. for Fuzzy Logic and Technology (EUSFLAT 2003). — Zittau, Germany, 2003. — P. 375−379.
4. Prechelt L. Investigation of the CasCor family of learning algorithms // Neural Networks. — 1997. — Т. 10, № 5. — P. 885−896.
3

ПоказатьСвернуть
Заполнить форму текущей работой