Искусственный интеллект: перспективы и угрозы

Тип работы:
Реферат
Предмет:
Программирование


Узнать стоимость

Детальная информация о работе

Выдержка из работы

Искусственный интеллект: перспективы и угрозы

Содержание

Введение

1. Настоящее и будущее искусственного интеллекта

1.1 Компоненты агента

1.2 Архитектура объектов

1.3 Оценка правильности выбранного направления

1.4 Перспективы развития искусственного интеллекта

2. Этические и моральные последствия разработки ИИ

Вывод

Список литературы

Введение

Научно-техническая революция внесла коренные изменения в наш мир. Бурное развитие техники позволило человеку Нового времени осуществить мощное наступление на противостоящую ему окружающую среду с целью ее подчинения запросам человечества, пытающегося обеспечить себя необходимыми условиями жизнедеятельности. По мнению многих ученых, именно этот процесс окончательно выделил человека из всего круга сущего. Человечество совершило мощный эволюционный прорыв, оставив далеко позади другие биологические формы жизни. Движимый развитием техники процесс освоения природной среды, сложность социальной жизни человека, наполненной искусственными техническими изобретениями, достигли своего апогея в современности.

В определенный момент процесса изобретения и внедрения различных технических устройств, предназначенных для средств освоения и подчинения окружающего пространства, для средств коммуникации и расчетов своих действий, человек продуцировал очень необычный, неизвестный ранее феномен — искусственный интеллект. Ранее развитие техники сосредотачивалось на конструировании устройств, имитирующих с гораздо более высокой производительностью, нежели в их естественном проявлении, внешние органы чувств и органы действий человека: вместо естественного зрения — микроскоп или бинокль, вместо руки — экскаватор, вместо естественного слуха — радиосвязь, вместо ног — автомобиль и т. д. И вот появились устройства, призванные имитировать и замещать, казалось бы, самое главное в человеке — то, что с давних времен признавалось его самым существенным признаком — разумность. Системы искусственного интеллекта были призваны воспроизвести и, возможно, в перспективе заменить на более высоком качественном уровне процесс мышления человека, его способность к рациональным интеллектуальным действиям.

1. Настоящее и будущее искусственного интеллекта

В последнее время достигнуты поразительные успехи в научном понимании проблемы и в обеспечении технологических возможностей как с точки зрения разработки проектов, так и с точки зрения реализации компонентов агентов. В данной главе мы отвлечемся от деталей и попытаемся найти ответ на вопрос: «Приведет ли весь этот прогресс к созданию интеллектуального агента общего назначения, способного функционировать в самых различных вариантах среды?».

1.1 Компоненты агента

В настоящей главе, для того чтобы можно было сузить рамки обсуждения, будет рассматриваться проект агента, действующего с учетом полезности, который еще раз показан на рис. 1.1. Это наиболее общий из рассматриваемых нами проектов агентов; в этой главе речь также пойдет о его дополнении средствами обучения.

Рис. 1.1. Проект, основанный на модели агента, действующего с учетом полезности.

* Взаимодействие со средой с помощью датчиков и исполнительных механизмов. Этот аспект оставался очевидным для всех слабым пунктом на протяжении большей части истории развития искусственного интеллекта. Если не считать небольшого числа исключений, вызвавших всеобщее восхищение, системы искусственного интеллекта создавались таким образом, что людям приходилось вручную подавать в них входные данные и интерпретировать выходные, поскольку робототехнические системы, предназначенные для решения задач низкого уровня, на которые опирались бы высокоуровневые компоненты формирования рассуждений и планирования, в основном отсутствовали. Такая ситуация отчасти была обусловлена тем, что для обеспечения функционирования настоящих роботов даже в самой узкой области требовались существенные финансовые расходы и большие затраты труда проектировщиков. Такая ситуация быстро изменяется в последние годы в связи с появлением готовых программируемых роботов, таких как роботы с четырьмя опорными конечностями. Эти роботы, в свою очередь, созданы благодаря появлению небольших, недорогих телекамер CCD (Charge Coupled Device — прибор с зарядовой связью) с высоким разрешением, а также компактных, надежных электрических приводов. Технология MEMS (Micro-Electro Mechanical System — микроскопические электромеханические системы) позволила создать миниатюрные акселерометры и гироскопы, а в настоящее время в ее рамках создаются исполнительные механизмы, способные, например, приводить в действие искусственное летающее насекомое. (Существует также возможность объединять миллионы исполнительных механизмов MEMS для получения очень мощных макроскопических исполнительных механизмов). Поэтому, что касается вариантов физической среды, то больше нет реальных причин, оправдывающих то положение, в котором находятся системы искусственного интеллекта. Кроме того, стала доступной полностью новая среда — Internet.

* Слежение за состоянием мира. Это — одна из основных способностей, которой должен обладать интеллектуальный агент. Для этого требуется и восприятие, и обновление внутренних представлений. В главе 7 описаны методы слежения за миром, представленные в форме пропозициональной логики; в главе 10 они расширены до логики первого порядка, а в главе 15 представлены алгоритмы фильтрации для слежения за неопределенными вариантами среды. Эти инструментальные средства фильтрации вступают в действие, когда приходится сталкиваться с реальными (поэтому далекими от идеала) результатами восприятия. Современные алгоритмы фильтрации и восприятия могут комбинироваться для успешного выполнения заданий по составлению сообщений в виде предикатов низкого уровня, таких как «на столе стоит чашка», но еще многое предстоит сделать, прежде чем с помощью этих алгоритмов можно будет составить отчет, например, о том, что «доктор Рассел пьет чай с доктором Норвигом». Еще одна проблема состоит в том, что алгоритмы приближенной фильтрации, хотя и могут действовать в весьма обширной среде, остаются по сути пропозициональными, поэтому, как и пропозициональная логика, не позволяют явно представлять объекты и отношения. В главе 14 описано, как можно применить в сочетании теорию вероятностей и логику первого порядка для решения этой задачи; можно рассчитывать на то, что применение этих идей для слежения за сложными вариантами среды со временем позволит добиться огромных преимуществ. Кстати, как только речь заходит об объектах в неопределенной среде, нам приходится сталкиваться с неопределенностью идентичности, поскольку часто неизвестно, не потерян ли из виду тот объект, за которым мы начинали следить. Эта проблема в системах искусственного интеллекта, основанных на логике, почти всегда игнорировалась, поскольку в основном предполагалось, что результаты восприятия включают константные символы, которые однозначно обозначают те или иные объекты.

* Проектирование, оценка и выбор будущих способов действий. При решении этой задачи требования к представлению основных знаний остаются такими же, как и при решении задачи слежения за миром; трудности состоят главным образом в том, что приходится сталкиваться с проявлениями действий (например, связанных с проведением беседы или совместного чаепития), которые в конечном итоге состоят из тысяч или миллионов примитивных шагов, выполняемых реальным агентом. Вообще говоря, люди осуществляют такое сложное поведение исключительно благодаря тому, что действуют в рамках иерархической структуры поведенческих актов. В некоторых из алгоритмов планирования, приведенных в главе 12, используются иерархические представления и представления в логике первого порядка, позволяющие справляться с проблемами реальных масштабов; с другой стороны, в алгоритмах принятия решений в условиях неопределенности, приведенных в главе 17, по существу используются такие же идеи, как и в алгоритмах поиска с учетом состояния, рассматриваемых в главе 3. В этой области необходимо выполнить еще очень большой объем работы, возможно, на основе новейших достижений в области иерархического обучения с подкреплением.

* Полезность как способ выражения предпочтений. Вообще говоря, принцип, согласно которому рациональные решения должны быть основаны на максимизации ожидаемой полезности, является полностью общим и позволяет избежать многих проблем, связанных с подходами, основанными исключительно на достижении цели, таких как конфликтующие цели и ненадежные результаты. Однако до сих пор еще очень мало сделано в области создания реальных функций полезности. Достаточно представить себе, например, в какой сложной сети взаимодействующих предпочтений должен разбираться агент, действующий в качестве ассистента-делопроизводителя для чиновника. Как оказалось, задача декомпозиции предпочтений по сложным состояниям, подобная тому, как осуществляется декомпозиция убеждений по сложным состояниям в байесовских сетях, является весьма трудноразрешимой. Одна из причин этого может состоять в том, что распределение предпочтений по состояниям фактически компилируется из предпочтений, распределенных по историям состояний, которые описываются с помощью функций вознаграждения. Даже если функция вознаграждения является простой, соответствующая функция полезности может оказаться очень сложной. Это означает, что мы должны рассматривать задачу инженерии знаний для функций вознаграждения, которая должна стать способом информирования разрабатываемых агентов о том, какие к ним предъявляются требования, как очень серьезную.

* Обучение. В главах 18−20 описано, как может быть сформулирована задача обучения агента в виде задачи определения с помощью индуктивного обучения (контролируемого, неконтролируемого или основанного на подкреплении) тех функций, которые лежат в основе различных компонентов агента. Были разработаны очень мощные логические и статистические методы, позволяющие справляться с весьма значительными проблемами, часто достигающие или превосходящие возможности человека по идентификации предсказательных шаблонов, определенных в заданном словаре. С другой стороны, в области машинного обучения достигнуты лишь весьма небольшие успехи в решении важной проблемы формирования новых представлений на уровнях абстракции, более высоких по сравнению с входным словарем. Например, как может автономный робот выработать полезные предикаты, такие как Office и Cafe, если они не будут предоставлены ему разработчиком? Аналогичные соображения распространяются и на проблему определения с помощью обучения способа поведения; например, участие в чаепитии Having A Cup Of Tea — это важное действие высокого уровня, но как ввести его в библиотеку действий, которая первоначально содержит гораздо более простые действия, такие как Raise Arm (Поднять руку) и Swallow (Сделать глоток)? Если мы не поймем специфику таких проблем, то столкнемся с утомительной задачей построения больших баз обыденных знаний вручную.

1.2 Архитектура объектов

Возникает резонный вопрос: «Какие архитектуры агентов должны использоваться в агентах?» Ответом является: «Все архитектуры!» Выше было показано, что рефлексные реакции требуются в тех ситуациях, в которых существенным является фактор времени, а с другой стороны, рассуждения, основанные на знаниях, позволяют агенту планировать наперед. Полноценный агент должен быть способным выполнять и то и другое с использованием гибридной архитектуры. Одним из важных свойств гибридных архитектур является то, что границы между различными компонентами, обеспечивающими принятие решений, не постоянны. Например, в процессе компиляции декларативная информация, полученная на уровне формирования рассуждений, последовательно преобразуется во все более эффективные представления, что позволяет в конечном итоге достичь рефлексного уровня, как показано на рис. 1.2. (В этом состоит цель обучения на основе объяснения).

Рис. 1.2. Компиляция служит для преобразования результатов принятия решений на основе рассуждений в более эффективные рефлексивные механизмы.

Точно такую же структуру имеют такие архитектуры агентов, как Soar и Theo. После решения каждой задачи с помощью явного формирования рассуждений эти агенты сохраняют обобщенную версию полученного решения для его использования в рефлексном компоненте. Менее изученной проблемой является проблема осуществления процесса, обратного указанному, — после изменения среды рефлексы, усвоенные в результате обучения, могут оказаться больше не подходящими, и агенту может потребоваться вернуться на уровень формирования рассуждений, для того чтобы выработать новые способы поведения.

Агентам могут также потребоваться способы, позволяющие управлять своими собственными процессами формирования рассуждений. Они должны быть способными прекратить размышления, когда потребуются действия, а также должны умело использовать время, отведенное на рассуждения, чтобы выполнить наиболее продуктивные вычисления. Например, агент-водитель такси, который обнаружил впереди картину дорожного происшествия, должен решить за долю секунды, следует ли ему затормозить или объехать то место, где случилось происшествие. Кроме того, данный агент должен также потратить лишь долю секунды на размышление о наиболее важных в этой ситуации вопросах, например, нет ли движения на полосах слева и справа и нет ли непосредственно сзади него большого грузовика, но не задумываться над тем, что резкий маневр увеличит износ и стирание шин автомобиля или что ему давно нужно было найти очередного пассажира. Исследование таких проблем осуществляется главным образом в рамках направления искусственного интеллекта реального времени. По мере того как системы искусственного интеллекта проникают во все более сложные проблемные области, все решаемые задачи становятся задачами реального времени, поскольку агенту никогда больше не отводится достаточно времени для точного решения задачи принятия решений.

Очевидно, что становится насущной потребность в методах, которые позволяют действовать в более общих ситуациях принятия решений. В последние годы появились два перспективных метода. В первом из них предусматривается использование алгоритмов с отсечением по времени. Алгоритмом с отсечением повремени называется алгоритм, качество выходных данных которого неизменно улучшается во времени, поэтому он всегда готов предоставить приемлемое решение, когда бы ни была прервана его работа. Такие алгоритмы действуют под управлением метауровневой процедуры принятия решений, которая оценивает, стоит ли выполнять дальнейшие вычисления. Простым примером алгоритма с отсечением по времени является поиск с итеративным углублением в задачах ведения игр. Могут также быть созданы более сложные системы, состоящие из многих таких алгоритмов, действующих вместе. Вторым методом являются метарассуждения на основе теории решений. В этом методе применяется теория ценности информации для выбора вычислений. Ценность вычислений зависит и от их стоимости (с точки зрения того, что действие не проводится, пока они осуществляются) и от их преимуществ (измеряемых с учетом того, насколько повысилось качество решения). Методы формирования метарассуждений могут использоваться для проектирования лучших алгоритмов поиска и для обеспечения гарантий того, что алгоритмы будут обладать вневременным свойством. Безусловно, подход на основе метарассуждений является дорогостоящим, а методы компиляции могут применяться таким образом, чтобы издержки были малы по сравнению со стоимостями контролируемых вычислений.

Тем не менее метарассуждения представляют собой лишь один из аспектов общей рефлексивной архитектуры, т. е. архитектуры, позволяющей формировать рассуждения о вычислительных сущностях и действиях, возникающих в самой архитектуре. Теоретическую основу для рефлексивных архитектур можно заложить, определив совместное пространство состояний, складывающееся из состояний среды и вычислительного состояния самого агента. Могут быть спроектированы алгоритмы принятия решений и обучения, которые применяются к этому совместному пространству состояний и поэтому способствуют реализации и совершенствованию вычислительной деятельности агента. Мы надеемся, что в конечном итоге такие алгоритмы, предназначенные для решения узко конкретных задач, как альфа-бета поиски обратный логический вывод, исчезнут из систем искусственного интеллекта и будут заменены общими методами, которые направляют вычисления агента в сторону эффективного формирования высококачественных решений.

1.3 Оценка правильности выбранного направления

В предыдущем разделе были перечислены многие достижения и многие возможности для дальнейшего прогресса. Но в каком направлении идет все это развитие? Дрейфус проводит аналогию с попыткой достать до луны, взбираясь на дерево; в ходе этого наблюдается постоянный прогресс до тех пор, пока не будет достигнута вершина дерева. В этом разделе мы рассмотрим, напоминает ли текущий путь развития искусственного интеллекта подъем по стволу дерева или взлет ракеты. В главе 1 было указано, что наша цель состоит в создании агентов, которые действуют рационально, но в той же главе было также указано следующее: задача достижения идеальной рациональности, при которой всегда выполняются правильные действия, не осуществима. Дело в том, что при этом предъявляются слишком высокие требования к вычислительным ресурсам. Но в основной части данной книги применяется рабочая гипотеза, согласно которой идеальная рациональность является хорошей отправной точкой для анализа.

Теперь настало время определить, в чем именно состоит цель искусственного интеллекта. Мы стремимся создавать агентов, но какой спецификацией следует при этом руководствоваться? Ниже описаны четыре возможных варианта.

* Идеальная рациональность. Идеально рациональный агент в каждое мгновение действует таким образом, чтобы максимизировать свою ожидаемую полезность с использованием информации, полученной им из среды. Но было показано, что вычисления, необходимые для достижения идеальной рациональности, в большинстве вариантов среды требуют слишком больших затрат времени, поэтому задача обеспечения идеальной рациональности не является реалистичной.

* Вычислительная рациональность. Это понятие рациональности использовалось нами неявно при проектировании логических агентов и агентов, основанных на принятии решений. Вычислительно рациональный агент в конечном итоге возвращает то, что рассматривалось как рациональный выбор в начале этапа формирования им рассуждений. Такое свойство может представлять интерес, только если система используется лишь в демонстрационных целях, а в большинстве вариантов среды правильный ответ теряет свою ценность, если он не был своевременным. На практике проектировщики систем искусственного интеллекта вынуждены искать компромисс между требованиями по обеспечению качества решений и требованиями по уменьшению затрат времени на получение приемлемой общей производительности; к сожалению, теоретические основы вычислительной рациональности не позволяют предложить достаточно обоснованного способа выработки таких компромиссов.

* Ограниченная рациональность. Герберт Саймон отверг идею идеальной (или даже приближенно идеальной) рациональности и предложил использовать понятие ограниченной рациональности — описательную теорию принятия решений реальными агентами. Ниже приведена цитата из его работы.

Способность человеческого разума формулировать и решать сложные задачи слишком мала по сравнению с масштабами задач, для которых требуется искать решение, чтобы осуществлять объективно рациональное поведение в реальном мире, или хотя бы добиваться приемлемого приближения к такой объективной рациональности.

Саймон выдвинул предложение, что принцип ограниченной рациональности главным образом основан на принципе непритязательности (satisficing), т. е. на том, что проведение рассуждений следует осуществлять достаточно долго лишь для того, чтобы предложить «вполне приемлемый» ответ. За указанную выше работу Саймон получил Нобелевскую премию по экономике, а позднее выпустил книгу, в которой подробно осветил все свои идеи. По-видимому, понятие непритязательности может служить полезной моделью человеческого поведения во многих случаях. Но оно не является формальной спецификацией для интеллектуальных агентов, поскольку в теории Саймона не дано определение"вполне приемлемого" ответа. Кроме того, принцип непритязательности, по-видимому, является лишь одним из широкого спектра методов, используемых для осуществления действий в условиях ограниченных ресурсов.

* Ограниченная оптимальность (Bounded Optimality — ВО). Ограниченно оптимальный агент действует настолько хорошо, насколько это возможно, с учетом его вычислительных ресурсов. Это означает, что ожидаемая полезность программы агента для ограниченного оптимального агента является по меньшей мере такой же высокой, как и ожидаемая полезность любой другой агентской программы, работающей на том же компьютере.

По-видимому, наилучшие перспективы создания мощного теоретического фундамента для искусственного интеллекта открывает только одна из этих четырех возможностей — ограниченная оптимальность. Преимущество связанного с ней подхода состоит в том, что он является осуществимым, — всегда можно найти по меньшей мере одну наилучшую программу, а таким свойством не обладает подход с идеальной рациональностью. Ограниченно оптимальные агенты действительно применимы в реальном мире, тогда как вычислительно рациональные агенты обычно неприменимы, а агенты, действующие по принципу непритязательности, могут оказаться применимыми или нет, в зависимости от их собственных конструктивных особенностей.

Традиционным подходом в искусственном интеллекте было то, что нужно начинать с вычислительной рациональности, а затем вырабатывать компромиссы с учетом ресурсных ограничений. Если проблемы, связанные с применением ограничений, не столь существенны, то можно надеяться на создание окончательного проекта, аналогичного проекту ограниченно оптимального агента. Но, по мере того как ресурсные ограничения становятся все более важными (например, по мере усложнения среды), может оказаться так, что два проекта станут весьма несхожими. А в теории ограниченной оптимальности эти ограничения могут учитываться в рамках целостного подхода.

До сих пор объем знаний в области ограниченной оптимальности остается не таким уж значительным. Известно, что могут быть созданы ограниченно оптимальные программы для очень простых машин и для довольно лимитированных вариантов среды, но еще нет полного представления о том, какими должны быть программы ВО для больших компьютеров общего назначения, применяемых в сложных вариантах среды. Если теория ограниченной оптимальности будет носить конструктивный характер, то можно рассчитывать на получение проектов ограниченно оптимальных программ, которые не слишком сильно зависят от устройства используемого компьютера. Научные исследования стали бы весьма затруднительными, если бы увеличение объема памяти гигабайтового компьютера на несколько килобайтов привело к существенному изменению программы ВО. Одним из способов обеспечения того, чтобы это не могло случиться, может служить небольшое ослабление критериев ограниченной оптимальности. По аналогии с понятием асимптотической сложности (приложение А) можно определить понятие асимптотической ограниченной оптимальности (Asymptotic Bounded Optimality- ABO), как описано ниже. Предположим, что программа Р является ограниченно оптимальной для компьютера М в классе вариантов среды Е, тогда как сложность вариантов среды в Е не ограничена. В таком случае программа Р' обладает свойством АВО для мв Е, если она может превзойти по производительности программу Р, работая на компьютере км, который в к раз быстрее (или крупнее) по сравнению с М. За исключением предельных значений к было бы достаточно иметь программу, обладающую свойством АВО, для нетривиальной среды в нетривиальной архитектуре. Было бы мало смысла затрачивать невероятные усилия на поиск программ ВО, а не АВО, поскольку все равно размеры и скорость доступных компьютеров увеличиваются на постоянный коэффициент через фиксированные промежутки времени, в связи с появлением каждого нового поколения этих устройств.

Можно рискнуть предположить, что программы ВО или АВО для мощных компьютеров, действующих в сложных вариантах среды, не обязательно должны иметь простую, изящную структуру. Выше уже было показано, что для искусственного интеллекта общего назначения требуются некоторые рефлексивные способности и некоторые способности к формированию рассуждений, целый ряд форм представления знаний и принятия решений, механизмы обучения и компиляции для всех этих форм, методы управления процессом формирования рассуждений и большой запас знаний в данной конкретной области. Ограниченно оптимальный агент должен адаптироваться к той среде, в которой он находится сам, с тем чтобы в конечном итоге его внутренняя организация соответствовала возможностям оптимизации, характерным для данной конкретной среды. Можно рассчитывать лишь на указанную возможность, а такой ход развития аналогичен пути, по которому развивались гоночные автомобили с ограничениями на мощность, пока наконец не были созданы чрезвычайно сложные, но весьма эффективные проекты. По мнению авторов, наука искусственного интеллекта, основанная на понятии ограниченной оптимальности, будет способствовать интенсивному исследованию процессов, позволяющих путем последовательных итераций создавать агентские программы с ограниченной оптимальностью и, возможно, меньше сосредоточиваться на анализе того, как именно устроены создаваемые при этом программы, пусть даже не такие изящные.

Подводя итог, можно отметить, что проведение разработки понятия ограниченной оптимальности было предложено в качестве формальной задачи для исследований по искусственному интеллекту, которая не только хорошо определена, но и осуществима. Ограниченная оптимальность определяет оптимальные программы, но не оптимальные действия. А действия в конечном итоге вырабатываются программами и с помощью программ, которые полностью зависят от замысла проектировщика.

1.4 Перспективы развития искусственного интеллекта

архитектура агент искусственный интеллект

Дэвид Лодж в своем романе Small World об академическом мире литературной критики описал сцену, в которой главный герой вызывает замешательство среди группы выдающихся, но несогласных друг с другом теоретиков литературы, задав им следующий вопрос: «Что было бы, если бы вы оказались правы?» Ни один из теоретиков, по-видимому, еще не задумывался над этим вопросом раньше, поскольку ведение споров по поводу неопровержимых теорий — бессмысленное занятие. Аналогичное замешательство можно вызвать, задав исследователям в области искусственного интеллекта вопрос: «Что было бы, если бы вам удалось достичь своей цели?» Ведь искусственный интеллект демонстрирует замечательные достижения, а интеллектуальные компьютеры, безусловно, более полезны, чем неинтеллектуальные компьютеры, так о чем же беспокоиться?

Необходимо рассмотреть некоторые этические проблемы. Интеллектуальные компьютеры являются более мощными, но будет ли эта мощь использоваться во благо или во зло? Те, кто посвящают свою жизнь разработкам в области искусственного интеллекта, ответственны за то, чтобы влияние их работы было положительным. Широта этого влияния зависит от степени успеха искусственного интеллекта. Даже первые скромные успехи в области искусственного интеллекта повлияли на то, как осуществляются преподавание компьютерных науки разработка программного обеспечения. Благодаря искусственному интеллекту удалось создать принципиально новые приложения, такие как системы распознавания речи, системы управления запасами, интеллектуальные системы наружного наблюдения, роботы и машины поиска.

Авторы считают, что достижение в искусственном интеллекте успехов среднего уровня окажет влияние на повседневную жизнь всех слоев населения во всем мире. До сих пор такого рода всепроникающее воздействие на общество смогли оказать лишь компьютеризированные сети связи, такие как сеть сотовой телефонной связи и Internet, а искусственный интеллект оставался в стороне. Вполне можно представить себе, что действительно полезные персональные ассистенты для офиса или дома окажут большое положительное воздействие на повышение качества повседневной жизни, хотя они в краткосрочной перспективе и могут вызвать некоторые экономические неурядицы. Кроме того, технологические возможности, открывающиеся на этом уровне, могут быть также применены для создания автономного оружия, появление которого многие считают нежелательным.

Наконец, кажется вполне вероятным, что крупномасштабный успех в создании искусственного интеллекта (появление интеллекта на уровне человека и превосходящего его) повлияет на существование большинства представителей рода человеческого. Изменится сам характер нашей работы и развлечений, так же как и наши представления об интеллекте, сознании и будущей судьбе человечества. На этом уровне системы искусственного интеллекта могут создать более непосредственную угрозу самоопределению, свободе и даже выживанию людей. По этим причинам нельзя рассматривать исследования в области искусственного интеллекта в отрыве от их этических последствий.

2. Этические и моральные последствия разработки ИИ

До сих пор в этой главе в основном рассматривался вопрос о том, может ли быть разработан искусственный интеллект, но необходимо также посвятить время анализу вопроса, должен ли он все же быть разработан. Если последствия создания технологии искусственного интеллекта с большей вероятностью будут отрицательными, чем положительными, то люди, работающие в этой области, несут моральную ответственность, обязывающую их направить свои поиски в другие области. Непредвиденные отрицательные побочные эффекты стали следствием внедрения многих новых технологий: двигатели внутреннего сгорания послужили причиной загрязнения воздуха и повсеместного строительства дорог, даже в самых райских уголках; ядерные технологии стали причиной взрывов в Чернобыле и на острове Тримайл Айленди создали угрозу глобального разрушения. Все ученые и инженеры сталкиваются с этическими соображениями, которые они должны учитывать, выполняя свою работу, выбирая проекты, которые должны или не должны быть реализованы, а также способы осуществления этих проектов. На эту тему была даже написана книга Ethics of Computing. Но искусственный интеллект, по-видимому, становится источником некоторых невиданных ранее проблем, в том числе перечисленных ниже, кроме, скажем, строительства мостов, которые падают под собственным весом.

1. В результате автоматизации может увеличиться количество безработных.

2. Может уменьшиться (или увеличиться) количество свободного времени, имеющегося в распоряжении людей.

3. Люди могут потерять чувство собственной уникальности.

4. Люди могут потерять некоторые из своих прав на личную жизнь.

5. Использование систем искусственного интеллекта может привести к тому, что люди станут более безответственными.

6. Успех искусственного интеллекта может стать началом конца человеческой расы.

Рассмотрим каждую из этих проблем по очереди.

1) В результате автоматизации может увеличиться количество безработных.

Современная индустриальная экономика стала полностью зависимой от применения компьютеров в целом и отдельных программ искусственного интеллекта в частности. Например, значительная часть экономики зависит от доступности потребительского кредита. Проверка заявок на выпуск кредитных карт, выдача разрешений на осуществление платежей и раскрытие мошеннических сделок, а также другие операции теперь выполняются программами искусственного интеллекта. Напрашивается вывод, будто из-за появления этих программ свои места потеряли тысячи служащих, но в действительности этих рабочих мест без применения программ искусственного интеллекта просто не было бы, поскольку в случае применения ручного труда стоимость этих операций была бы неприемлемой. До сих пор автоматизация с помощью технологии искусственного интеллекта неизменно создавала больше рабочих мест, чем устраняла, к тому же приводила к появлению более интересных и высокооплачиваемых специальностей. Теперь, после того как канонической программой искусственного интеллекта стал «интеллектуальный агент 1», предназначенный для помощи человеку, потеря работы становится еще менее вероятным последствием внедрения искусственного интеллекта по сравнению с той эпохой, когда все усилия специалистов по искусственному интеллекту сосредоточивались на создании «экспертных систем» предназначенных для замены людей.

2) Может уменьшиться (или увеличиться) количество свободного времени, имеющегося в распоряжении людей.

Алвин Тоффлер в своей книге Future Shock указал: «Рабочая неделя с начала столетия сократилась на 50%.И никого не удивляет прогноз, что к 2000 году она будет сокращена еще наполовину». Артур К. Кларк писал, что «люди в 2001 году могут столкнуться с будущим, заполненным необычайной скукой, когда главной проблемой в жизни станет принятие решения о том, какой из нескольких сотен телевизионных каналов выбрать для просмотра. Единственным из этих прогнозов, который сбылся хоть в какой-то степени, стало количество телевизионных каналов. А вместо сокращения рабочего дня люди, занятые в отраслях промышленности, характеризующихся интенсивным использованием знаний, стали чувствовать себя частью интегрированной компьютеризированной системы, которая работает 24 часа в сутки; чтобы успешно справляться со своими обязанностями, они вынуждены работать все больше и больше. В индустриальной экономике вознаграждения приблизительно пропорциональны затратами времени; увеличение продолжительности работы на 10% обычно приводит в среднем к увеличению доходов на 10%. А в информационной экономике, характеризующейся наличием широкополосной связи и упрощением тиражирования интеллектуальной собственности (которую Фрэнк и Кук назвали «обществом, в котором победитель получает все»), самое большое вознаграждение приносит способность оказаться немного более успешным, чем конкурент; увеличение продолжительности работы на 10% может означать увеличение дохода на 100%. Поэтому каждый испытывает все возрастающий прессинг, который заставляет его работать все интенсивнее. Искусственный интеллект способствует увеличению темпов внедрения технологических инноваций и поэтому вносит свой вклад в эту общую тенденцию, но искусственный интеллект обещает также предоставить нам возможность снять с себя часть нагрузки и позволить нашим автоматизированным агентам хоть какое-то время выполнять работу за нас.

3) Люди могут потерять чувство собственной уникальности.

В своей книге Computer Power and Human Reason Вейценбаум, автор программы Eliza, указал на некоторые потенциальные угрозы, с которыми сталкивается общество в связи с развитием искусственного интеллекта. Одним из самых важных доводов Вейценбаума является то, что в результате исследований в области искусственного интеллекта кажется уже не такой невероятной идея о том, что люди представляют собой автоматы, а эта идея приводит к потере самостоятельности или даже человечности. Но авторы настоящей книги хотят отметить, что эта идея существовала задолго до появления искусственного интеллекта и восходит по меньшей мере к тем временам, когда вышла книга L’Homme Machine. Авторы также отмечают, что люди пережили и другие покушения на чувство их уникальности: Коперник, автор книги De Revolutionibus Orbium Coelestium, убрал Землю из центра солнечной системы, а Дарвин, автор книги Descent of Man, поместил вид Homo sapiens на тот же уровень, где находятся все другие виды живых существ. Поэтому даже в случае его широкого и успешного наступления искусственный интеллект станет не большей угрозой для моральных устоев общества XXI века, чем была дарвиновская теория эволюции для XIX века.

4) Люди могут потерять некоторые из своих прав на личную жизнь.

Вейценбаум также указал, что развитие технологии распознавания речи может привести к широкому распространению средств прослушивания телефонных разговоров и поэтому к потере гражданских свобод. Он не предвидел, что когда-то в мире террористические угрозы станут настолько реальными, что изменят отношение людей к тому, с каким уровнем надзора они будут готовы согласиться, однако правильно понял, что искусственный интеллект обладает потенциалом к созданию средств надзора массового применения. Предсказание Вейценбаума вскоре может осуществиться: правительство США рассматривает вопрос о внедрении системы Echelon, которая «состоит из сети пунктов прослушивания, антенных полей и радарных станций; система опирается на поддержку компьютеров, в которых используется языковой перевод, распознавание речи и поиск по ключевым словам для автоматического просеивания трафика, идущего по телефону, электронной почте, факсу и телексу». Многие согласны с тем, что компьютеризация приводит к ущемлению прав на личную жизнь, — один из старших руководителей компании Sun Microsystems Скотт Макнили даже заявил: «У вас все равно нет никакой личной жизни. Забудьте о ней». Другие с этим не согласны; например, судья Луис Брандейс писал еще в 1890 году: «Право наличную жизнь является самым всеобъемлющим из всех прав… ведь это — право оставаться самим собой».

5) Использование систем искусственного интеллекта может привести к тому, что люди станут более безответственными.

В той атмосфере постоянной готовности к судебным разбирательствам, которая доминирует в Соединенных Штатах, большую важность приобретают вопросы правовой ответственности. Если терапевт принял на веру суждение медицинской экспертной системы в отношении диагноза, то кто будет нести ответственность, если диагноз окажется неправильным? К счастью, теперь общепризнано, что нельзя рассматривать как пренебрежение служебными обязанностями выполнение терапевтом медицинских процедур, которые имеют высокую ожидаемую полезность, даже если фактические результаты оказались катастрофическими для пациента (отчасти такая смена взглядов обусловлена ростом влияния методов теории решений в медицине). Поэтому приведенный выше вопрос должен рассматриваться в такой формулировке: «Кто должен нести ответственность, если диагноз оказался неоправданным?» До сих пор суды исходили из того, что медицинские экспертные системы играют такую же роль, как медицинские учебники и справочники; терапевты обязаны понять ход рассуждений, лежащий в основе любого решения системы, и использовать свое собственное суждение для принятия решения о том, нужно ли следовать рекомендациям системы. Поэтому при проектировании медицинских экспертных систем в виде интеллектуальных агентов действия этих систем следует рассматривать не как непосредственно воздействующие на пациента, а как влияющие на поведение терапевта. А если экспертные системы когда-то будут надежно вырабатывать более точные диагнозы по сравнению с людьми, врачи могут стать юридически ответственными, если они не используют рекомендации экспертной системы. Такая предпосылка рассматривается в. Приобретают также важное значение аналогичные вопросы, касающиеся использования интеллектуальных агентов в Internet. Например, достигнут определенный прогресс в части внедрения ограничений в интеллектуальные агенты, чтобы они не могли, допустим, повредить файлы других пользователей. Проблемы становятся еще более важными, когда речь идет о денежных сделках. Если финансовые операции выполняются интеллектуальным агентом «от чьего-то имени», то кто будет отвечать за причиненные убытки? Будет ли существовать такая возможность, чтобы интеллектуальный агент сам имел активы и участвовал в электронных торгах от своего имени? Создается впечатление, что такие вопросы до сих пор еще полностью не изучены. Насколько известно авторам данной книги, еще ни одной программе не был придан правовой статус как индивидуума, способного участвовать в финансовых операциях; в настоящее время такое решение, по-видимому, было бы неблагоразумным. Кроме того, программы еще не рассматриваются как «водители», когда речь идет о контроле за выполнением правил дорожного движения на реальных автомагистралях. По крайней мере, в Калифорнии не предусмотрено никаких юридических санкций, которые исключали бы возможность превышения автоматизированным транспортным средством скоростных пределов, хотя в случае аварии должен нести ответственность проектировщик механизма управления транспортным средством. Как и в случае технологии клонирования людей, законодателям еще предстоит включить новые разработки в правовое поле.

6) Успех искусственного интеллекта может стать началом конца человеческой расы.

Почти любая технология, попадая в злонамеренные руки, обнаруживает потенциальные возможности для причинения вреда, но когда речь идет об искусственном интеллекте и робототехнике, возникает новая проблема, связанная с тем, что эти злонамеренные руки могут принадлежать самой технологии. Предупреждения о том, какую опасность несут роботы или роботизированные киборги-гуманоиды, вышедшие из-под контроля, стали сюжетом бесчисленных научно-фантастических произведений. К числу самых ранних примеров таких произведений относятся книга Frankenstein, or the Modern Prometheus Мэри Шелли и пьеса R.U.R Карела Чапека A921 год, в которых описано, как роботы завоевывают мир. В кинематографе этой теме посвящены фильм «The Terminator» (Терминатор), вышедший на экраны в 1984 году, в котором используются клише «о роботах, завоевывающих мир» и сюжет о путешествии во времени, и фильм «The Matrix» (Матрица), вышедший в1999 году, в котором объединены сюжеты «о роботах, завоевывающих мир» и «о мозге, растущем в колбе». По-видимому, роботы являются главными героями такого большого количества художественных произведений о завоевании мира в основном из-за того, что они воплощают в себе неизвестное, точно так же, как ведьмы и приведения в сказках, которыми пугали людей в более ранние эпохи. Но действительно ли роботы создают более реальную угрозу, чем ведьмы и приведения? Если роботы правильно спроектированы как агенты, которые соблюдают интересы своего владельца, то они не создают таких угроз: роботы, развивающиеся на основе постоянного усовершенствования текущих проектов, будут служить своим хозяевам, а не бороться против них. Люди иногда используют свой интеллект в агрессивных формах, поскольку они обладают некоторыми врожденными агрессивными тенденциями, обусловленными естественным отбором. Но машины, созданные людьми, не нуждаются в чертах врожденной агрессивности, если только сами люди не решат, что они должны быть таковыми. С другой стороны, возможно, что компьютеры добьются своего рода победы над людьми, успешно служа и становясь незаменимыми, так же как и автомобили, которые в определенном смысле завоевали промышленно развитый мир. Рассмотрим один сценарий, заслуживающий дополнительного анализа. И. Дж. Гуд писал в одном из своих произведений следующее. Дадим определение сверхинтеллектуальной машине как способной намного превзойти во всех областях мыслительной деятельности любого человека, каким бы умным он не был. А поскольку проектирование машин является одним из таких направлений мыслительной деятельности, то сверхинтеллектуальная машина сможет проектировать еще более интеллектуальные машины; это, безусловно, приведет к «взрыву интеллектуальности» и интеллект человека останется далеко позади. Таким образом, первое изобретение сверхинтеллектуальной машины станет последним изобретением, которое когда-либо сможет сделать человек, и то, если только машина будет достаточно любезна, чтобы сообщить человеку, как держать ее под контролем. Этому «взрыву интеллектуальности» профессор математики и автор научно-фантастических произведений Вернор Виндж присвоил другое название — технологическое превосходство; он писал: «В течение тридцати лет люди получат технологические средства для создания сверхчеловеческого интеллекта. Вскоре после этого эра людей закончится». Гуд и Виндж (и многие другие) правильно отмечают, что в настоящее время кривая технологического растет экспоненциально (достаточно вспомнить закон Мура). Однако прогноз, что эта кривая будет и дальше подниматься вверх, следуя законам почти бесконечного роста, был бы слишком смелым. До сих пор любая технология развивалась по S-образной кривой, согласно которой экспоненциальный рост в конечном итоге сходит на нет. Виндж озабочен и обеспокоен грядущим технологическим превосходством, но другие специалисты в области компьютерных наук, занимающиеся прогнозами, радуются его наступлению. Ханс Моравек в своей книге Robot: Mere Machineto Transcendent Mind предсказывает, что роботы сравняются по интеллектуальности с человеком за 50 лет, после чего его превзойдут. В своей книге он пишет следующее. Довольно скоро они станут способными вытеснить нас из жизни. Но я не очень встревожен такой возможностью, поскольку считаю, что будущие машины — это наше потомство, «порождение нашего разума», созданное по нашему образу и подобию; это мы, нов более развитой форме. Как и биологические дети предыдущих поколений, они воплотят в себе лучшие надежды человечества на долгосрочное будущее. Это побуждает нас предоставить им все возможное содействие, а затем отойти в сторону, после того, как мы больше не в состоянии будем делать что-то полезное [1085]. Рей Курцвейл в своей книге The Age of Spiritual Machines предсказывает, что к 2099 году наметится «мощная тенденция к слиянию человеческого мышления с миром машинного интеллекта, который был изначально создан родом человеческим. Больше не будет какого-либо четкого различия между людьми и компьютерами». Возникло даже новое слово, трансгуманизм, для обозначения активного социального движения, которое охватывает тех, кто готовится к такому будущему. Достаточно сказать, что указанные вопросы становятся вызовом для большинства теоретиков морали, которые считают единственно возможным путем развития сохранение существования человека и самого человеческого рода. Наконец, рассмотрим эту проблему с точки зрения робота. Если роботы обретут сознание, то трактовка их просто как «машин» (т.е. дальнейшее их принижение) может стать аморальной. Роботы сами должны также действовать морально — нам потребуется запрограммировать в них теорию, по которой они смогут судить, что хорошо и что плохо. Проблема прав и обязанностей роботов рассматривалась в произведениях авторов научной фантастики, начиная с Айзека Азимова. В широкоизвестном фильме «АЛ.» [1451] Спилберга основой сюжета является рассказ Брайена Олдисса об интеллектуальном роботе, в программу которого была вложена вера в то, что он — человек, поэтому он не мог понять, почему же его когда-то неизбежно покинет владелица-мать. И в самом рассказе, использованном Спилбергом, и в его фильме приведены доводы в пользу того, что должно быть развернуто движение за гражданские права роботов.

Вывод

Кажется вполне вероятным, что крупномасштабный успех в создании искусственного интеллекта (появление интеллекта на уровне человека и превосходящего его) повлияет на существование большинства представителей рода человеческого. Изменится сам характер нашей работы и развлечений, так же как и наши представления об интеллекте, сознании и будущей судьбе человечества. На этом уровне системы искусственного интеллекта могут создать более непосредственную угрозу самоопределению, свободе и даже выживанию людей. По этим причинам нельзя рассматривать исследования в области искусственного интеллекта в отрыве от их этических последствий.

Каким мы видим будущее? Авторы научно-фантастических романов, по-видимому, чаще публикуют пессимистические, а не оптимистические сценарии грядущего, возможно, потому, что это позволяет сочинять более увлекательные сюжеты. Но создается впечатление, что искусственный интеллект пока развивается по такому же принципу, как и другие революционные технологии (типографское дело, инженерное оборудование, воздухоплавание, телефония и т. д.), отрицательные последствия внедрения которых перевешиваются положительными результатами.

В заключение следует отметить, что за свою короткую историю искусственный интеллект добился существенного прогресса, но последнее утверждение из эссе Алана Тьюринга Computing Machinery and Intelligence продолжает оставаться неоспоримым и в наши дни.

Список литературы

1. Напалков А., Прагина Л. — Мозг человека и искусственный интеллект. 1985 г.

2. С. Рассел, П. Норвиг. — Искусственный интеллект, современный подход. 2006 г.

3. Смолин Д. В. — Введение в искусственный интеллект. Конспект лекций 2004 г. 208 с.

ПоказатьСвернуть
Заполнить форму текущей работой