Нейронные сети и эволюционное моделирование

Тип работы:
Реферат
Предмет:
Программирование


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Введение

В настоящее время человек пытается автоматизировать много очень сложных процессов из различных областей науки и производства. При этом все больше становится известно о мышлении человека, о нервной системе живых организмов, а также о механизмах эволюции живых существ. Всё это отражается на подходах к автоматизации. Каждый такой подход влечет за собой появление новых технологий. По всему миру активно развиваются алгоритмы, позволяющие строить нейронные сети, алгоритмы нечеткой логики, а также эволюционный метод поиска оптимальных решений. Все они взаимодействуют между собой и дополняют друг друга. На вершине такого взаимодействия стоит искусственный интеллект. Программное обеспечение, написанное с применением этих алгоритмов, применяется во всех областях техники и технологии.

Многие высокотехнологичные компании в настоящее время занимаются созданием искусственного интеллекта. Практически во всей сложной бытовой технике используется тот или иной подход. Например, алгоритмы нечеткой логики применяются в японских стиральных машинах типа автомат. Нечеткая логика в Японии де факто стала стандартом. Нейронные сети используются там, где необходимо обучить объект перед использованием. Часто это элементы распознавания речи. Компания Apple в своей продукции использует такой подход. Эволюционные алгоритмы используются для поиска оптимальных вариантов. Часто используются для настройки нейронных сетей, а также наравне с двумя другими в программном обеспечении для исследования рынков. Сейчас каждая серьёзная финансовая организация, которая работает с различными рынками, создает сама или косвенно участвует в разработке искусственного интеллекта, оплачивая прогнозы различных рынков.

Искусственный интеллект, появление и развитие

В современных системах управления вопрос о принятии решений информационной системой требует фиксации знаний об управляемом объекте и реализации моделей принятия решений. Способность накопления и использования знания, принятие решений человеком называется естественным интеллектом, информационной системой — искусственным интеллектом.

Термин «искусственный интеллект» впервые был предложен Джоном Мак Карти в 1955 г. на конференции в Дартмутском университете. Спустя десять лет Гербет Саймон предсказал, что «в пределах самого ближайшего будущего — значительно меньше, чем за двадцать пять лет, — мы будем иметь техническую возможность заменить машиной любую функцию человека во всех организациях». Ниже описаны ключевые события в истории искусственного интеллекта, начиная с первой работы Маккалока и Питса в 1943 г. и до современных тенденций в экспертных системах и нейронных вычислений в современных системах, основанных на знаниях.

Рождение искусственного интеллекта (1943 — 1956): Маккалок и Питс — логическое исчисление идей, присущих нервной деятельности (1943 г.), Тьюринг — вычислительная машина и интеллект (1950 г.) Шеннон — программирование компьютера для шахматной игры (1950 г.).

Подъем искусственного интеллекта (1956 — 1960): Маккарти — LISP (язык программирования искусственного интеллекта), Куллиан — семантические сети для представления знаний (1966 г), Ньюэл и Саймон — универсальный решатель задач (1961 г.), Минский — структуры (фреймы) для представления знаний (1975 г.).

Открытие и разработка экспертных систем (1970 — 1985): Фейгенбаум, Буханан и др. (Стэндфордский университет) — экспертная система DENDRAL, Фейгенбаум, Шортлиф — экспертная система MYCIN, Стэндфордский исследовательский центр — экспертная система PROSPECTOR, Колмероэ, Ковальски и др. (Франция) — язык логического программирования PROLOG.

Возрождение искусственных нейронных сетей (1965 г. по н.в.): Хопфилд — нейронные сети и физические с эмержентными коллективными вычислительными способностями (1982 г.), Кохонен — самоорганизующиеся топологически правильные карты (1982 г.), Румельхарт и Макклеланд — распределенная параллельная обработка данных (1986 г.).

Эволюционное вычисление (1970 г. по н.в.): Рехенберг — эволюционные стратегии, оптимизация технических систем по принципам биологической информации (1973 г.), Холланд — адаптация в естественных и искусственных системах (1975 г.), Коза — генетическое программирование, компьютерное программирование средствами естественного отбора (1992 г.), Фогель — эволюционное вычисление, направление новой философии в машинном интеллекте (1995 г.).

Нечеткие множества и нечеткая логика (1965 г. по н.в.): Заде — нечеткие множества (1965 г.), Заде — нечеткие алгоритмы (1969 г.), Мамдани — применение нечеткой логики в приближенном рассуждении с использованием лингвистического синтеза (1977 г.).

Вычисления при помощи слов (1985 г. по н.в.): Нейгоца — экспертные системы и нечеткие системы (1985 г.), Коско — нейронные сети и нечеткие системы (1992 г.), Коско — нечеткое мышление (1993 г.), Ягер и Заде — нечеткие множества, нейронные сети и мягкие вычисления (1994 г.), Коско — нечеткая инженерия (1996 г.), Заде — вычисления при помощи слов (1996 г.).

Начало исследований в области искусственного интеллекта связывают с работами Ньюэлла, Саймана и Шоу, исследовавших процессы решения различных задач. Их программы «Логик-Теоретик» — доказательство теорем в исчислении высказываний, и «Общий решатель задач», положили начало первому этапу исследований в области искусственного интеллекта, связанному с разработкой программ, решающих задачи на основе применения разнообразных эвристических методов.

Эвристический метод решения задачи рассматривался как метод, свойственный человеческому мышлению, для которого характерно возникновение догадок о пути решения задачи с последующей проверкой. Ему противопоставлялся используемый в ЭВМ алгоритмический метод, который интерпретировался как механическое осуществление заданной последовательности шагов, детерминированно приводящей к правильному ответу.

Трактовка эвристических методов решения задач как человеческой деятельности обусловила появление и дальнейшее распространение термина «искусственный интеллект». В качестве доводов, подтверждающих, что их программы моделируют человеческое мышление, Ньюэлл и Саймон приводили результаты сравнения записей доказательств теорем в виде программ с записями рассуждения думающего вслух человека. В начале 70-х годов они предложили общую методику составления программ, моделирующих мышление.

В середине 70-х годов в Массачусетсском технологическом институте, Стэнфордском университете и Стэнфордском исследовательском институте сформировались исследовательские группы в области искусственного интеллекта, которые рассматривали способы решения задач на основе расширения математической и символической логики. Моделированию же человеческого мышления придавалось второстепенное значение.

На дальнейшие исследования в области искусственного интеллекта большое влияние оказал метод резолюций Робинсона, основанный на доказательстве теорем в логике предикатов и являющийся исчерпывающим методом доказательства. При этом определение термина искусственного интеллекта претерпело существенное изменение. Целью исследований стала разработка программ, способных решать «человеческие задачи». По мнению Р. Бенерджи (1969 г.): «Область исследований, обычно называемую искусственный интеллект, вероятно, можно представить как совокупность методов и средств анализа и конструирования машин, способных выполнять задания, с которыми до недавнего времени мог справиться только человек. При этом по скорости и эффективности машины должны быть сравнимы с человеком».

Исследовательским полигоном для развития методов искусственного интеллекта на первом этапе явились всевозможные игры, головоломки, математические задачи. Некоторые задачи стали классическими: задачи об обезьяне и бананах, миссионерах и людоедах, Ханойской башне, игра в 15 и другие. Выбор таких задач обуславливался простотой и ясностью проблемной среды, ее относительно малой громоздкостью, возможностью достаточно легкого подбора и даже искусственного конструирования.

В конце 60-х годов стали делаться первые попытки применения разработанных методов для задач, решаемых в реальных проблемных средах. Необходимость исследования систем при их функционировании в реальном мире привело к постановке задачи создания интегральных роботов. Проведение таких работ можно считать вторым этапом исследований по искусственному интеллекту.

В Стэнфордском университете, Стэнфордском исследовательском институте и некоторых других местах были разработаны экспериментальные роботы, функционирующие в лабораторных условиях. Проведение этих экспериментов показало необходимость решения кардинальных вопросов, связанных с проблемой представления знаний о среде функционирования. Одновременно проявилась недостаточная изученность таких проблем, как зрительное восприятие, построение сложных планов поведения в динамических средах, общение с роботами на естественном языке.

Эти проблемы были сформулированы и поставлены перед исследователями в середине 70-х гг. Начался третий этап в области исследований систем искусственного интеллекта. Центр внимания исследователей с создания автономно функционирующих систем, самостоятельно решающих в реальной среде поставленные задачи сместился к созданию человеко-машинных систем. Такие системы должны интегрировать в единое целое интеллект человека и способности вычислительных машин для достижения общей цели — решение задачи, поставленной перед интегральной человеко-машинной решающей системой. Данная ситуация была обусловлена следующими причинами:

— даже простые задачи, возникшие перед интегральным роботом при его функционирование в реальном времени, не могли быть решены раннее использованными методами;

— сочетание дополняющих друг друга возможностей человека и ЭВМ позволило обойти острые углы путем перекладывания на человека тех функций, которые были не доступны ЭВМ.

— резким ростом производства средств вычислительной техники и также резким их удешевлением, делающим их потенциально доступными для более широких кругов пользователей.

На первый план выдвинулись задачи разработки методов и средств, обеспечивающих тесное взаимодействие человека и вычислительной системы в течение всего процесса решения задачи с возможностью оперативного внесения человеком изменений в ходе этого процесса.

История развития нейронных сетей

Термин «нейронная сеть» появился в середине XX века. Первые работы, в которых были получены основные результаты в данном направлении, были проделаны Мак-Каллоком и Питтсом. В 1943 году ими была разработана компьютерная модель нейронной сети на основе математических алгоритмов и теории деятельности головного мозга. Они выдвинули предположение, что нейроны можно упрощённо рассматривать как устройства, оперирующие двоичными числами, и назвали эту модель «пороговой логикой». Подобно своему биологическому прототипу нейроны Мак-Каллока-Питтса были способны обучаться путём подстройки параметров, описывающих синаптическую проводимость. Исследователи предложили конструкцию сети из электронных нейронов и показали, что подобная сеть может выполнять практически любые вообразимые числовые или логические операции. Мак-Каллок и Питтс предположили, что такая сеть в состоянии также обучаться, распознавать образы, обобщать, т. е. обладает всеми чертами интеллекта.

Данная модель заложила основы двух различных подходов исследований нейронных сетей. Один подход был ориентирован собственно на изучение биологических процессов в головном мозге, другой — на применение нейронных сетей как метода искусственного интеллекта для решения различных прикладных задач.

В 1949 году канадский физиолог и психолог Хебб высказал идеи о характере соединения нейронов мозга и их взаимодействии. Он первым предположил, что обучение заключается в первую очередь в изменениях силы синаптических связей. Теория Хебба считается типичным случаем самообучения, при котором испытуемая система спонтанно обучается выполнять поставленную задачу без вмешательства со стороны экспериментатора. В более поздних вариантах теория Хебба легла в основу описания явления долговременной потенциации.

В 1954 году в Массачусетском технологическом институте с использованием компьютеров Фарли и Кларк разработали имитацию сети Хебба. Также исследования нейронных сетей с помощью компьютерного моделирования были проведены Рочестером, Холландом, Хебитом и Дудой в 1956 году.

В 1957 году Розенблаттом были разработаны математическая и компьютерная модели восприятия информации мозгом на основе двухслойной обучающейся нейронной сети. При обучении данная сеть использовала арифметические действия сложения и вычитания. Розенблатт описал также схему не только основного перцептрона, но и схему логического сложения. В 1958 году им была предложена модель электронного устройства, которое должно было имитировать процессы человеческого мышления, а два года спустя была продемонстрирована первая действующая машина, которая могла научиться распознавать некоторые из букв, написанных на карточках, которые подносили к его «глазам», напоминающим кинокамеры.

Интерес к исследованию нейронных сетей угас после публикации работы по машинному обучению Минского и Пейперта в 1969 году. Ими были обнаружены основные вычислительные проблемы, возникающие при компьютерной реализации искусственных нейронных сетей. Первая проблема состояла в том, что однослойные нейронные сети не могли совершать «сложение по модулю 2», то есть реализовать функцию «Исключающее ИЛИ». Второй важной проблемой было то, что компьютеры не обладали достаточной вычислительной мощностью, чтобы эффективно обрабатывать огромный объём вычислений, необходимый для больших нейронных сетей.

Исследования нейронных сетей замедлились до того времени, когда компьютеры достигли больших вычислительных мощностей. Одним из важных шагов, стимулировавших дальнейшие исследования, стала разработка в 1975 году Вербосом метода обратного распространения ошибки, который позволил эффективно решать задачу обучения многослойных сетей и решить проблему со «сложением по модулю 2».

В 1975 году Фукусимой был разработан когнитрон, который стал одной из первых многослойных нейронных сетей. Фактическая структура сети и методы, используемые в когнитроне для настройки относительных весов связей, варьировались от одной стратегии к другой. Каждая из стратегий имела свои преимущества и недостатки. Сети могли распространять информацию только в одном направлении или перебрасывать информацию из одного конца в другой, пока не активировались все узлы и сеть не приходила в конечное состояние. Достичь двусторонней передачи информации между нейронами удалось лишь в сети Хопфилда (1982), и специализация этих узлов для конкретных целей была введена в первых гибридных сетях.

Алгоритм параллельной распределённой обработки данных в середине 1980 годов стал популярен под названием коннективизма. В 1986 году в работе Руммельхарта и Мак-Клелланда коннективизм был использован для компьютерного моделирования нейронных процессов.

Несмотря на большой энтузиазм, вызванный в научном сообществе разработкой метода обратного распространения ошибки, это также породило многочисленные споры о том, может ли такое обучение быть на самом деле реализовано в головном мозге. Отчасти это связывали с тем, что механизм обратного прохождения сигнала не был очевидным в то время, так как не было явного источника обучающего и целевого сигналов. Тем не менее, в 2006 году было предложено несколько неконтролируемых процедур обучения нейронных сетей с одним или несколькими слоями с использованием так называемых алгоритмов глубокого обучения. Эти алгоритмы могут быть использованы для изучения промежуточных представлений, как с выходным сигналом, так и без него, чтобы понять основные особенности распределения сенсорных сигналов, поступающих на каждый слой нейронной сети.

Как и во многих других случаях, задачи высокой сложности требуют применения не одного, а нескольких методов решения или их синтеза. Не исключение и искусственные нейронные сети. С самого начала нынешнего столетия в работах различных исследователей активно описываются нейро-нечёткие сети, ячеечно-нейросетевые модели. Также нейронные сети используются, например, для настройки параметров нечётких систем управления. В общем, нет никаких сомнений и в дальнейшей интеграции методов искусственного интеллекта между собой и с другими методами решения задач.

История развития эволюционного программирования

В настоящее время сложилось большое направление в развитии систем искусственного интеллекта, получившее название эволюционного моделирования. Исторически оно развивалось в разных странах: Германии, США и других разными путями.

Так, в Германии в 1960-х годах в качестве методов решения задач оптимизации, основанных на принципах природной эволюции, искусственного отбора и искусственной жизни, были созданы эволюционные стратегии.

В США примерно в это же время был предложен подход, получивший название эволюционного программирования. Оно отличается от генетических алгоритмов и эволюционных стратегий, главным образом, применением различных способов структуризации последовательностей действий, направленных на получение конечного результата.

Основы современных генетических алгоритмов были заложены в книге Холланда, использовавшего в них принципы дарвинизма. Правда генетическими они стали называться позднее, а в 1975 году автор назвал их репродуктивными планами и рассматривал, прежде всего, как алгоритмы адаптации.

Через несколько лет генетические алгоритмы были признаны как высокоэффективный инструмент для решения задач глобальной оптимизации. Эта более узкая, по сравнению с изначальной, трактовка вызвала сильный резонанс в литературе, и, как показало время, вполне обоснованно. Почти два десятилетия исследований генетических алгоритмов на тестовых многоэкстремальных функциях ушли на доказательство их эффективности при решении задач оптимизации, оставив в стороне их выдающиеся адаптивные способности.

По мере развития генетических алгоритмов, эволюционных стратегий и методов эволюционного программирования количество различий между ними сокращалось за счёт использования принципов одного направления в других. Это фактически и привело к созданию единого направления — эволюционного моделирования, или эволюционного подхода.

В 1986 году появилось новое направление эволюционного моделирования -- искусственные иммунные системы. Его авторы -- Паккард и Перельсон — предложили использовать типичные характеристики и модели функционирования человеческой иммунной системы главным образом для решения задач распознавания образов и оптимизации. В середине 1990-х годов эти принципы активно развивались в исследованиях Форреста, Тимминса, Нила и других исследователей. Суть метода заключается в проведении эволюционного процесса клеток искусственной иммунной системы по принципам и механизмам, протекающим в естественных иммунных системах.

В 1995 году в США Сторном и Прайсом разработан метод дифференциальной эволюции. Он работает напрямую с вещественными числами любой точности и подходит для оптимизации многомерных функций, в том числе не дифференцируемых, с большим количеством локальных оптимумов. Метод прост в реализации и легко распараллеливается.

Несмотря на то, что каждый из вышеописанных методов возник независимо от других, они характеризуются наличием большего количества общих свойств, чем отличий. Так, для любого из них формируется исходная популяция особей, которая в дальнейшем подвергается селекции и воздействию различных генетических операторов, что в итоге приводит к нахождению лучших решений, чем предыдущие.

Следует отметить, что некоторые из эволюционных методов моделирования похожи своими принципами на многоагентные системы, поэтому вполне могут пересекаться с последними или относиться по классификации к параллельному направлению.

История развития нечеткой логики

Одним из создателей кибернетики Джоном фон Нейманом было замечено, что стремление получить точную, исчерпывающую модель для достаточно сложного объекта (процесса) не имеет смысла, поскольку сложность такого описания становится соизмеримой со сложностью самого объекта. Следовательно, использование такой модели не позволяет просто и наглядно объяснить механизм его функционирования, воспользоваться какими-либо стандартными математическими процедурами для исследования характеристик объекта и синтеза системы управления им. Это особенно относится к таким объектам управления, как производственные процессы, организационные, транспортные, биологические системы и др.

Известный специалист в области теории систем профессор факультета электротехники и информатики Калифорнийского университета (г. Беркли, США) Лотфи А. Заде сформулировал эту мысль в виде так называемого принципа несовместимости. Согласно этому принципу: «Чем сложнее система, тем менее мы способны дать точные и в то же время имеющие практическое значение суждения об ее поведении.

Для систем, сложность которых превосходит некоторый пороговый уровень, точность и практический смысл становятся почти исключающими друг друга характеристиками. Именно в этом смысле точный качественный анализ поведения гуманистических систем (т.е. систем, в которых участвует человек) не имеет, по-видимому, большого практического значения в реальных социальных, экономических и других задачах, связанных с участием одного человека или группы людей".

В большинстве случаев лица, принимающие решения, не могут формально представить себе этот процесс. И дело здесь не в том, что они плохо понимают то, что делают, а в том, что неопределенность (нечеткость) лежит в самой природе принятия решений.

Выражаясь словами того же Л. А. Заде, «в большинстве основных задач, решаемых человеком, не требуется высокая точность. Человеческий мозг использует допустимость такой неточности, кодируя информацию, «достаточную для задачи» (или «достаточную для решения»), элементами нечетких множеств, которые лишь приближенно описывают исходные данные.

Поток информации, поступающей в мозг через органы зрения, слуха, осязания и др., суживается, таким образом, в тонкую струйку информации, необходимой для решения поставленной задачи с минимальной степенью точности. Способность оперировать нечеткими множествами и вытекающая из нее способность оценивать информацию является одним из наиболее ценных качеств человеческого разума, которое фундаментальным образом отличает человеческий разум от так называемого машинного разума, приписываемого существующим вычислительным машинам. Наш мир состоит не из одних нулей и единиц — нам нужна более гибкая логика для того, чтобы представлять реальные взаимосвязи. Нужны подходы, для которых точность, строгость и математический формализм не являются чем-то абсолютно необходимым и в которых используется методологическая схема, допускающая нечеткости и частичные истины".

Классическая логика развивается с древнейших времен. Ее основоположником считается Аристотель. Логика известна нам как строгая и сугубо теоретическая наука, и большинство ученых (кроме разработчиков последних поколений компьютеров) продолжают придерживаться этого мнения. Вместе с тем классическая или булева логика имеет один существенный недостаток — с ее помощью невозможно описать ассоциативное мышление человека. Классическая логика оперирует только двумя понятиями: ИСТИНА и ЛОЖЬ, и исключая любые промежуточные значения. Аналогично этому булева логика не признает ничего кроме единиц и нулей.

Все это хорошо для вычислительных машин, но попробуйте представить весь окружающий вас мир только в черном и белом цвете, вдобавок исключив из языка любые ответы на вопросы, кроме ДА и НЕТ. В такой ситуации вам можно только посочувствовать.

Решить эту проблему и призвана нечеткая логика. С термином «лингвистическая переменная» можно связать любую физическую величину, для которой нужно иметь больше значений, чем только ДА и НЕТ. В этом случае вы определяете необходимое число термов и каждому из них ставите в соответствие некоторое значение описываемой физической величины. Для этого значения степень принадлежности физической величины к терму будет равна единице, а для всех остальных значений -- в зависимости от выбранной функции принадлежности. Например, можно ввести переменную ВОЗРАСТ и определить для нее термы ЮНОШЕСКИЙ, СРЕДНИЙ и ПРЕКЛОННЫЙ. Обсудив с экспертами значения конкретного возраста для каждого терма, вы с полной уверенностью можете избавиться от жестких ограничений логики Аристотеля.

Получившие наибольшее развитие из всех разработок искусственного интеллекта, экспертные системы завоевали устойчивое признание в качестве систем поддержки принятия решений. Подобные системы способны аккумулировать знания, полученные человеком в различных областях деятельности. Посредством экспертных систем удается решить многие современные задачи, в том числе и задачи управления. Однако большинство систем все еще сильно зависит от классической логики.

Одним из основных методов представления знаний в экспертных системах являются продукционные правила, позволяющие приблизиться к стилю мышления человека. Любое правило продукций состоит из посылок и заключения. Возможно наличие нескольких посылок в правиле, в этом случае они объединяются посредством логических связок И, ИЛИ. Обычно продукционное правило записывается в виде:

«ЕСЛИ (посылка) (связка) (посылка)… (посылка) ТО (заключение)».

Главным же недостатком продукционных систем остается то, что для их функционирования требуется наличие полной информации о системе.

Нечеткие системы тоже основаны на правилах продукционного типа, однако в качестве посылки и заключения в правиле используются лингвистические переменные, что позволяет избежать ограничений, присущих классическим продукционным правилам.

Первой работой, заложившей основы нового подхода к анализу сложных систем и процессов принятия решений была опубликованная в 1964 г. статья американского профессора Л. А. Заде. Суть данного подхода, получившего название нечеткой логики (Fuzzy Logic), заключается в следующем: 1) в нем используются так называемые «лингвистические» переменные вместо обычных числовых переменных или в дополнение к ним; 2) простые отношения между переменными описываются с помощью нечетких высказываний; 3) сложные отношения описываются нечеткими алгоритмами.

Предложенные идеи, в силу своей нацеленности на моделирование процессов принятия решений в условиях неопределенности, нашли много сторонников и получили широкое распространение в качестве инструмента для построения реальных систем ИИ. На вопрос «Что такое нечеткая логика?» дается следующий ответ: «Это технология, которая обеспечивает разработку систем с помощью интуиции и инженерных знаний „know-how“. Нечеткая логика использует понятия повседневной речи для определения поведения системы. Она дает возможность построения робастных, отказоустойчивых систем».

Несмотря на огромный поток публикаций в данной области (например, с 1965 г. по 1993 г. опубликовано свыше 30 000 работ по данной теме, с 1978 г. издается журнал «Fuzzy Sets and Systems» — официальный орган Международной ассоциации нечетких систем (IFSA)), идеи нечеткой логики имеют и своих противников.

Так, известный американский математик, специалист в области теории систем Р. Е. Калман (1972) пишет: «Наиболее серьезные возражения против выдвигаемой профессором Заде идеи „нечеткого“ анализа систем заключаются в том, что недостаток методов системного анализа вовсе не является принципиальной проблемой в теории систем. Эта проблема должна решаться на основе развития существующих концепций и более глубокого изучения природы систем, возможно, отыскания для них нечто вроде „законов“ Ньютона. По моему мнению, предложения Заде не имеют никаких шансов, чтобы способствовать решению этой важной проблемы».

Л.А. Заде считал это сопротивление «принципом молотка»: «Если человек держит в руке молоток и это единственный в его распоряжении инструмент, то ему везде видится гвоздь».

Общеизвестно, что практика — критерий истины. Еще в 1983 г. японская фирма «Фуджи Электрик» реализовала на основе нечетких алгоритмов управления установку для обработки питьевой воды. В 1987 г. запущена в производство система управления новым метро в г. Сендаи, около Токио, предложенная на аналогичных принципах фирмой «Хитачи». В 1991 г. Япония экспортировала в общей сложности более чем на 25 млрд. долларов товаров, в которых тем или иным образом использовались компоненты нечеткой логики. Это, в первую очередь, товары культурно-бытового назначения — фотоаппараты, видеокамеры, стиральные машины, холодильники, пылесосы, микроволновые печи и многое другое.

Таким образом, технология, почти не замеченная всем миром, в Японии превратилась в одну из ключевых технологий, что сразу привлекло к себе огромное внимание. Сегодня многие ведущие компании США, Германии, Франции и ряда других стран предлагают самые разнообразные товары и системы с использованием принципов нечеткой логики, осваивая все новые и новые области применения.

Вместе с тем, по оценкам европейских ученых, Япония значительно опережает в развитии своих ближайших конкурентов в этом направлении.

В Калифорнийском университете Л. А. Заде организовал лабораторию, получившую название «Берклийская Инициатива в области гибких вычислений» (Berkley -Initiative in Soft- Computing"), которая также поставила своей целью разработку «нечетких» технологий.

В последнее время нечеткая технология завоевывает все больше сторонников среди разработчиков систем управления. За прошедшее время нечеткая логика прошла путь от почти антинаучной теории, практически отвергнутой в Европе и США, до банальной ситуации конца девяностых годов, когда в Японии в широком ассортименте появились «нечеткие» бритвы, пылесосы, фотокамеры.

Сам термин «fuzzy» так прочно вошел в жизнь, что на многих языках он даже не переводится. В России в качестве примера можно вспомнить рекламу стиральных машин и микроволновых печей фирмы Samsung, обладающих искусственным интеллектом на основе нечеткой логики. Тем не менее, столь масштабный скачок в развитии нечетких систем управления не случаен. Простота и дешевизна их разработки заставляет проектировщиков все чаще прибегать к этой технологии. После поистине взрывного старта прикладных нечетких систем в Японии многие разработчики США и Европы наконец-то обратили внимание на эту технологию. Но время было упущено, и мировым лидером в области нечетких систем стала Страна восходящего солнца, где к концу 1980-х годов был налажен выпуск специализированных нечетких контроллеров, выполненных по технологии СБИС.

В такой ситуации Intel нашла поистине гениальное решение. Имея большое количество разнообразных контроллеров от MCS-51 до MCS-96, которые на протяжении многих лет успешно использовались во многих приложениях, корпорация решила создать средство разработки приложений на базе этих контроллеров, но с использованием технологии нечеткости. Это позволило избежать значительных затрат на конструирование собственных нечетких контроллеров, а система от Intel, получившая название fuzzy TECH, завоевала огромную популярность не только в США и Европе, но и прорвалась на японский рынок.

Искусственный интеллект, нейронные сети, эволюционное программирование и нечеткая логика сейчас

Сегодня область искусственного интеллекта содержит в себе взаимодействие нейронных сетей, эволюционного программирования и нечеткой логики. Это показано на рис 1.

Нейро — Нечеткие сети (НС).

Включение концепции нечеткой логики в НС дает возможность гибридной системе иметь дело с человекоподобным процессом рассуждений, закладывать в информационное поле НС априорный опыт экспертов-экономистов, использовать нечеткое представление информации, извлекать знания из входного потока экономических показателей, а интеллектуальные средства анализа позволяют оптимизировать затраты на модификацию и эксплуатацию корпоративного сайта субъекта рыночных отношений.

Взаимодействие между разделами науки занимающимися нейронными сетями, эволюционным программированием и нечеткой логикой.

Объединение возможностей нейронных сетей и нечеткой логики является наиболее перспективным подходом к организации систем интеллектуального анализа экономических данных. Системы нечеткой логики компенсируют две основные «непрозрачности» НС в представлении знаний и объяснений результатов работы интеллектуальной системы, т. е. НЛ наилучшим образом дополняет нейронные сети.

Нечеткая логика позволяет формализовать качественную информацию, полученную от экспертов-экономистов для конкретной сферы применения, и представить совокупность полученных знаний в виде системы нечетких правил логического вывода, позволяющих анализировать заключения, полученные в процессе работы гибридной интеллектуальной системы.

Нейронные сети дают возможность отобразить алгоритмы нечеткого логического вывода в структуре НС, вводя в информационное поле нейронной сети информацию, полученную от экспертов-экономистов. Сформированная подобным образом база знаний автоматически корректируется в процессе обучения нейро-нечеткой сети исходя из реальных значений анализируемых экономических показателей и результаты коррекции могут быть подвергнута последующему анализу. Важной особенностью нейро-нечетких сетей является способность автоматически генерировать систему нечетких правил, извлекая скрытые закономерности изданных обучающей выборки. Под названием адаптивной нейро-нечеткой системой вывода — ANFIS (Adaptive Neuro-Fuzzy Inference System) известна специализированная пейросетевая структура, характеризующаяся хорошей сходимостью и ориентированная на извлечение знаний в виде системы нечетких правил из данных обучающей выборки. ANFIS — функциональный эквивалент нечеткой модели вывода по алгоритму Sugcno. Таким образом, проведенный анализ показывает, что знания квалифицированных экономистов для конкретной предметной области, представленные в форме нечетких правил логического вывода, могут быть прозрачным способом отражены в структуре нейро-нечеткой сети. Обучение нечеткой НС позволяет не только настроить веса связей (т. е. откорректировать достоверность нечетких правил логического вывода), но и устранить противоречивость системы нечетких правил в целом. В случае отсутствия исходной информации по данной предметной области, но при достаточном объеме обучающей выборки нейро-нечеткая сеть автоматически преобразует скрытые в анализируемых экономических показателях закономерности в базу знаний в виде системы правил нечеткого логического вывода.

Решение задач управления и принятия решений корпоративного уровня сопровождается оптимизацией сайта хозяйствующего субъекта. Причем оптимизация информационной структуры коропративного сайта в соответствии с интересами его посетителей базируется на придании сайту адаптивных свойств, что требует привлечения современных интеллектуальных средств. Анализ перспективных интеллектуальных средств подтвердил, что при решении задач управления и принятия решений, для которых характерно наличие неполной и недостаточно достоверной информации, хорошо зарекомендовали себя системы интеллектуального анализа данных. Нейронные сети, системы нечеткой логики являются обязательным инструментом интеллектуального поиска и извлечения знаний, т. к. обладают способностью выявления значимых признаков и скрытых закономерностей в анализируемых экономических показателях.

Нейронные сети и эволюционное моделирование

Обучение нейронных сетей сложная задача по ряду причин. Нередко процесс поиска адекватной нейросетевой модели заканчивается с нулевым результатом и очень большую роль играет опыт разработчика нейросетевых моделей. Для получения нейросетевой модели решающей задачу с заданным показателем качества обычно необходимо пройти следующие шаги: вначале необходимо подготовить данные, определиться с типом сети, определить входы и выходы, решить задачу о первоначальной структуре сети — слои и нейроны в них, далее необходимо обучить сеть, то есть подобрать коэффициенты связей между нейронами, проверить обученную сеть на валидационной выборке и в итоге проверить в реальной работе. При этом все шаги тесно связаны между собой и некачественная проработка по одному из них ведет, в конечном счете, к длительному обучению сети или вообще к получению неправильно работающей нейросети. Существует большое количество методов и алгоритмов предварительной подготовки данных, расчета структуры сети и модифицированных методов обучения, но все они в значительной мере опираются на опыт разработчика. Одним из наиболее универсальных способов автоматического получения нейросетевых моделей является использование генетических алгоритмов.

Согласно COGANN (Combinations of Genetic Algorithms and Neural Networks), объединение нейронных сетей и генетических алгоритмов может быть, как вспомогательным, так и равноправным. Во вспомогательном подходе один метод идет вслед за другим, а в равноправном оба метода используются синхронно.

В качестве вспомогательной парадигмы выделяют следующие виды объединения:

* генетические и нейросетевые алгоритмы применяются одновременно для одной задачи (например, для задач классификации);

* анализ нейронных сетей с помощью генетических алгоритмов;

* подбор параметров нейронных сетей с помощью генетических алгоритмов;

* подбор правил обучения нейронных сетей с помощью генетических алгоритмов;

* формирование исходной популяции для генетических алгоритмов с помощью нейронных сетей.

В случае равноправного объединения выделяют следующие виды совместного использования генетических алгоритмов и нейронных сетей:

* генетические алгоритмы для обучения нейронных сетей (эволюционное обучение нейронной сети);

* выбор топологии нейронной сети с помощью генетического алгоритма (эволюционный подбор топологии сети);

* нейронные сети для решения оптимизационных задач с подбором весов через генетический алгоритм;

* реализация генетического алгоритма с помощью нейронной сети.

Следует отметить, что иногда в связке «генетический алгоритм + нейронная сеть» применяются очень сложные архитектуры нейронных сетей, в частности АРТ-1 и АРТ-2.

Управляемыми параметрами в генетических алгоритмах являются: длина хромосомы; наполнение хромосомы (локусы и аллели); параметры оператора кроссовера; параметры оператора мутации; параметры оператора инверсии; параметры выбора лучших особей; критерий остановки генерации особей и популяции; параметры генерации начальной и последующих популяций и т. д.

Выводы

Бурное развитие нейронных сетей, эволюционного моделирования и нечеткой логики приводит к большему их взаимодействию. И если раньше они развивались параллельно друг от друга, то теперь уже идут бок о бок. На первый план, как апогей такого взаимодействия выходит создание искусственного интеллекта. И хотя сама идея его создания появилась задолго до появления нейронных сетей, эволюционного моделирования и нечеткой логики на данном этапе стало понятно, что симбиоз этих трех методов ляжет своей основой для искусственного интеллекта.

Нейронные сети, эволюционное моделирование и нечеткая логика бурно развиваются и находят всё новые и новые ниши для себя. При этом идет создание искусственного интеллекта. С каждым годом идей и программ с применением алгоритмов нейронных сетей, эволюционного моделирования и нечеткой логики становится всё больше и больше.

алгоритм логика интеллект нейронный

Список литературы

1. Амоносов Н. М., Алгоритмы разума/ Киев. Изд. Наукова думка 1979.

2. Барский А. Б., Нейронные сети: распознавание, управление, принятие решений/ Москва, Финансы и статистика, 2004.

3. Беркинблит М. Б., Нейронные сети: учебное пособие/ Москва, Миросс 1993 г.

4. Роберт Каллан, Основные концепции нейронных сетей. /Издательский дом «Вильямс», 2001.

9. Заенцев И. В. Нейронные сети: основные модели И. В. Заенцев. -- Воронеж: Изд-во Воронежского госуд. ун-та, 1999. -- 76 с.

10. Вороновкий Г. К. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности Г. К. Вороновский, К. В. Махотило, С. Н. Петрашев, С. А. Сергеев. -- Х.: ОСНОВА, 1997. -- 112 с.

11. Рутковская Д. Нейронные сети, генетические алгоритмы и нечёткие системы Д. Рутковская, М. Пилиньский, Л. Рутковский. -- М.: Горячая линия Телеком, 2006. -- 452 с.

12. Каллан Р. Основные концепции нейронных сетей Р. Каллан. -- Москва, Санкт-Петербург, Киев: Издательский дом «Вильямс», 2001. -- 287 с

13. Джонс М. Т. Программирование искусственного интеллекта в приложениях М. Тим Джонс; Пер. с англ. Осипов А. И. -- М.: ДМК Пресс, 2006. -- 312 с.

14 Ежов А. А. Нейрокомпьютинг и его применение в экономике и бизнесе: Учеб. пособие А. А. Ежов, С. А. Шумский. -- М.: МИФИ, 1998. -- 222 с.

15. Осовский С. Нейронные сети для обработки информации С. Осовский. М.: Финансы и статистика, 2004. -- 343 с.

16. Уоссермен Ф. Нейрокомпьютерная техника: теория и практика Ф. Уоссермен. -- М.: Мир, 1992. -- 236 с.

17. Круглов В. В. Нечёткая логика и искусственные нейронные сети: Учеб. пособие для студентов вузов В. В. Круглов, М. И. Дли, Р. Ю. Голунов. М.: Физматлит, 2001. -- 224 с.

18. Яхъяева Г. Э. Нечеткие множества и нейронные сети: учеб. пособие Г. Э. Яхъяева. -- М.: Интернет-Ун-т Информ. Технологий: БИНОМ. Лаб. знаний, 2008. -- 315 с.

19. Хайкин С. Нейронные сети. Полный курс С. Хайкин. 2-e изд. Пер. с англ. — М.: Издательский дом «Вильямс», 2006. — 1104 с.

20. Рутковская Д. Нейронные сети, генетические алгоритмы и нечёткие системы Д. Рутковская, М. Пилиньский, Л. Рутковский. -- М.: Горячая линия Телеком, 2006. -- 452 с.

21. Джонс М. Т. Программирование искусственного интеллекта в приложениях М. Тим Джонс; Пер. с англ. Осипов А. И. -- М.: ДМК Пресс, 2006. -- 312 с.

22. Круглов В. В. Нечёткая логика и искусственные нейронные сети: Учеб. пособие для студентов вузов В. В. Круглов, М. И. Дли, Р. Ю. Голунов. М.: Физматлит, 2001. -- 224 с.

23. Батыршин И. З. Основные операции нечёткой логики и их обобщения И. З. Батыршин. -- Казань: Отечество, 2001. -- 101 с.

24. Кофман А. Введение в теорию нечётких множеств в управлении предприятиями А. Кофман, Х. Хил Алуха. -- Минск: Вышейш. шк., 1992. 222 с.

25. Прикладные нечёткие системы [К. Асаи, Д. Ватада, С. Иваи и др. ]; Под ред. Т. Тэрано, К. Асаи, М. Сугэно. -- М.: Мир, 1993. -- 368 с.

26. Вороновкий Г. К. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности Г. К. Вороновский, К. В. Махотило, С. Н. Петрашев, С. А. Сергеев. -- Х.: ОСНОВА, 1997. -- 112 с.

27. Дасгупта Д. Искусственные иммунные системы и их применение под ред. Д. Дасгупты; пер. с англ. под ред. А. А. Романюхи. -- М.: ФИЗМАТЛИТ, 2006. -- 344 с.

28. Джонс М. Т. Программирование искусственного интеллекта в приложениях М. Тим Джонс; Пер. с англ. Осипов А. И. -- М.: ДМК Пресс, 2006. -- 312 с.

29. Емельянов В. В. Теория и практика эволюционного моделирования В. В. Емельянов, В. М. Курейчик, В. В. Курейчик. -- М.: ФИЗМАТЛИТ, 2003. -- 431 с.

30. Гладков Л. А. Генетические алгоритмы: учебник для студентов вузов Л. А. Гладков, В. В. Курейчик, В. М. Курейчик М.: ФИЗМАТЛИТ, 2010. -- 365 с.

31. Джонс М. Т. Программирование искусственного интеллекта в приложениях М. Тим Джонс; Пер. с англ. Осипов А. И. -- М.: ДМК Пресс, 2006. -- 312 с.

. ur

ПоказатьСвернуть
Заполнить форму текущей работой