Библиотека    Новые поступления    Словарь    Карта сайтов    Ссылки





назад содержание далее

Часть 1.

Люгер, Дж.Ф.

Искусственный интеллект. Часть 7. 2001.

Люгер, Джордж, Ф. Искусственный интеллект: стратегии и методы решения сложных проблем, 4-е издание. : Пер. с англ. - М.: Издательский дом "Вильяме", 2003. - 864 с.-С. 777-840.

Часть VII

Эпилог

Потенциал компьютерных наук (при его полном изучении и реализации) поставит нас на более высокую ступень знания о мире. Компьютерные науки помогут нам достичь более глубокого понимания интеллектуальных процессов. Они углубят наши знания о процессах обучения, мышления и анализа. Мы сможем построить модели и концептуальные средства для развития науки о познании. Подобно доминирующей роли физики в нашем веке при изучении природы материи и начала вселенной, сегодня на первый план выступает изучение интеллектуальной вселенной идей, структур знаний и языка. По моему мнению, это приведет к существенным улучшениям, которые в корне изменят нашу жизнь... Мне кажется, недалек тот час, когда мы поймем принципы

организации знаний и управления ими...

- Дж. Хопкрофт (J. Hopcroft), лекция по случаю вручения премии Тьюринга, 1987

Что такое мышление? Нематериальная субстанция. Что такое материя? Этого никогда не осмыслить...

- Гомер Симпсон (Homer Simpson)

Мы научимся, когда поймем, что это важно. - Эрл Уивер (Weaver)

Рассуждения о природе интеллекта

Хотя в этой книге затрагивается множество философских аспектов искусственного интеллекта, основное внимание сосредоточено на инженерных технологиях, используемых для построения интеллектуальных артефактов на основе компьютера. В заключение книги мы вернемся к более сложным вопросам философских основ искусственного интеллекта, постараемся еще раз переосмыслить возможности науки о познании на основе методологии ИИ, а также обсудить будущие направления развития этой дисциплины.

Как неоднократно отмечалось ранее, исследования человеческого познания и способов решения задач человеком внесли существенный вклад в теорию искусственного интеллекта и разработку его программного обеспечения. В свою очередь, работы в области ИИ обеспечили возможность построения моделей и экспериментальную проверку научныхрезультатов во многих дисциплинах, в том числе биологии, лингвистике и психологии познания. В заключение мы обсудим такие темы, как ограниченность представлений, важность физического овеществления процессов мышления и роль культуры в накоплении и интерпретации знаний. Эти вопросы приводят к таким новым научным и философским проблемам, как опровержимость моделей или природа и возможности самого научного метода. Опыт автора привел его к междисциплинарному подходу, объединяющему работы в области ИИ с исследованиями психологов, лингвистов, биологов, антропологов, эпистемологов и специалистов в других областях, изучающих весь спектр проблем человеческого мышления.

Традиционно работы в области искусственного интеллекта основывались на гипотезе о физической символьной системе [Newell и Simon, 1976]. В рамках этого подхода были разработаны сложные структуры данных и стратегии поиска, которые, в свою очередь, привели к получению множества важных результатов. Были созданы системы, обладающие элементами интеллектуального поведения, и выявлены многие компоненты, составляющие интеллект человека. Важно отметить, что большинство результатов, основанных на этих ранних подходах, были ограничены предположениями, вытекающими из философии рационализма. Согласно рационалистской традиции сам интеллект рассматривается как процесс логических рассуждений и решения научных задач, основанный на прямом, эмпирическом подходе к пониманию вселенной. Этот философский рационализм слишком ограничивает развитие искусственного интеллекта на современном этапе.

В книге представлено множество более современных разработок, в том числе альтернативные модели обучения, агентно-ориентированные и распределенные системы решения задач, подходы, связанные с овеществлением интеллекта, а также исследования по реализации эволюционных вычислений и искусственной жизни. Эти подходы к пониманию интеллекта обеспечивают необходимые альтернативы идеям рационалистского редукционизма. Биологические и социальные модели интеллекта показали, что человеческий разум во многом является продуктом нашего тела и ощущений. Он связан с культурными и социальными традициями, навеян произведениями искусства, нашим опытом и опытом окружающих людей. Создавая методы и компьютерные модели таких сложных процессов, как эволюция или адаптация нейросетевых структур человеческого мозга, исследователи в области ИИ получили множество новых мощных результатов, дополняющих более традиционные методологии.

Искусственный интеллект, подобно самим компьютерным наукам, - довольно новая область. Если процесс развития физики или биологии измеряется столетиями, то возраст современных компьютерных наук исчисляется десятками лет. В главе 16 мы постараемся интегрировать различные подходы к ИИ в единую науку создания интеллектуальных систем. Автор считает, что эта наука, технология, философия и жизненное кредо приведут к возможности создания новых артефактов и экспериментов, которые при корректном использовании позволят глубже понять общие принципы построения интеллектуальных систем. В этой главе рассматриваются предложенные в главе 1 традиции изучения эпистемологических основ ИИ. Это делается не для того, чтобы дать достойный ответ критикам (хотя многие из их нападок все еще требуют ответа), а с позитивной целью - исследовать и осветить пути развития этой науки.

778

Искусственный

интеллект

как эмпирическая

проблема

Теория вычислительных систем - дисциплина эмпирическая. Можно было бы назвать ее экспериментальной наукой, но, подобно астрономии, экономике и геологии, некоторые из ее оригинальных форм испытаний и наблюдений невозможно втиснуть в узкий стереотип экспериментального метода. Тем не менее это эксперименты. Конструирование каждого нового компьютера - это эксперимент. Сам факт создания машины ставит вопрос перед природой; и мы получаем ответ на него, наблюдая за машиной в действии, анализируя ее всеми доступными способами. Каждая новая программа - это эксперимент. Она ставит вопрос природе, и ее поведение дает нам ключи к разгадке. Ни машины, ни программы не являются "черными ящиками", это творения наших рук, спроектированные как аппаратно, так и программно; мы можем снять крышку и заглянуть внутрь. Мы можем соотнести их структуру с поведением и извлечь множество уроков из одного-

единственного эксперимента.

- Ньюэлл (A. Newell) и Саймон (Н.А. Simon), лекция по случаю вручения премии Тьюринга, 1976

Изучение мыслящих машин дает нам больше знаний о мозге, чем самоанализ. Западный человек воплощает себя в устройствах.

- Уильям С. Берроуз (William Burroughs), Завтрак нагишом

Где то знание, что утеряно в информации? - Т. С. Элиот (T.S. Eliot), хоры из поэмы "Скала"

16.0. Введение

Для многих людей наиболее удивительным аспектом работы в сфере искусственного интеллекта является степень, в которой ИИ, да и большая часть теории вычислительных систем, оказывается эмпирической дисциплиной. Этот аспект удивителен, поскольку большинство рассматривает эти области в терминах своего математического или инженерного образования. Пунктуальным математикам свойственно желание применить к

конструированию интеллектуальных устройств привычные им логические рассуждения и анализ. С точки зрения "неряшливых" инженеров, задача часто состоит лишь в создании систем, которые общество назвало бы "разумными". К несчастью, а может, и наоборот (в зависимости от точки зрения), сложность интеллектуальных программ и неопределенность, присущая их взаимодействию с миром природы и человеческой деятельности, делают невозможным анализ с чисто математической или чисто инженерной точек зрения.

Более того, если мы пытаемся довести исследования искусственного интеллекта до уровня науки и сделать их неотъемлемой частью теории интеллектуальных систем (science of intelligent systems), то в процессе конструирования, использования и анализа артефактов должны применять смесь из аналитических и эмпирических методов. С этой точки зрения каждая программа ИИ должна рассматриваться как эксперимент: он ставит вопрос перед природой, и ответ на него - это результат выполнения программы. Отклик природы на заложенные конструкторские и программные принципы формирует наше понимание формализма, закономерностей и самой сути мышления.

В отличие от многих традиционных наук, изучающих человеческое познание, разработчики разумных компьютерных систем могут исследовать внутренние механизмы своих "подопытных". Они могут останавливать выполнение программы, изучать ее внутреннее состояние и как угодно модифицировать ее структуру. Как отметили Ньюэлл и Саймон, устройство компьютеров и компьютерных программ предопределяет их потенциальное поведение, возможность всестороннего исследования, и доступность для понимания. Сила компьютеров как инструментов для изучения интеллекта проистекает из этой двойственности. Соответствующим образом запрограммированные компьютеры способны достигнуть высокой степени сложности как в семантике, так и в поведении. Такие системы естественно охарактеризовать в терминах физиологии. Кроме того, можно исследовать их внутренние состояния, что в большинстве случаев не могут осуществить ученые, занимающиеся разумными формами жизни.

К счастью для работ в сфере ИИ, равно как и для становления теории интеллектуальных систем, современные физиологические методы, в особенности относящиеся к нейрофизиологии, пролили свет на многие аспекты человеческого мышления. Например, сегодня мы знаем, что функция человеческого интеллекта не цельна и однородна. Она, скорее, является модульной и распределенной. Достоинства этого подхода проявляются в работе органов чувств, например, сетчатки глаза, которая умеет фильтровать и предварительно обрабатывать визуальную информацию. Точно так же обучение нельзя назвать однородной, гомогенной способностью. Скорее, оно является функцией множества различных систем, каждая из которых адаптирована для специфических целей. Магнитно-резонансное сканирование, позитронная эмиссионная томография и другие методы получения изображений нервной системы дают яркую и точную картину внутреннего устройства естественных интеллектуальных систем.

Приближая ИИ к масштабам науки, необходимо решать важные философские проблемы, особенно относящиеся к эпистемологии, или вопрос о том, как интеллектуальная система "познает" свой мир. Эти проблемы варьируются от вопроса о том, что есть предметом изучения искусственного интеллекта, до более глубоких, таких как обоснованность и применимость гипотезы о физической символьной системе. Далее следуют вопросы о том, что такое "символ" в символьной системе, и как символы могут соотноситься с узлами коннекционистской модели. Рассматривается вопрос о роли рационализма, выраженного в форме индуктивного порога и представленного в большинстве обучающихся программ. Возникает вопрос, как соотнести это с недостаточной структу-

780 Часть VII. Эпилог

рированностью, присущей обучению без учителя, обучению с подкреплением и эволюционным подходам. И, наконец, необходимо рассмотреть роль конструктивного исполнения, внедрения агентов и социологических предпосылок решения задач. В заключение дискуссии о философских вопросах будет предложена эпистемология в духе конструктивизма, которая естественным образом согласуется с предложенным подходом к рассмотрению ИИ как науки, так и эмпирической проблемы.

Итак, в этой заключительной главе мы вновь возвращаемся к вопросу, поставленному в главе 1: что такое интеллект? Поддается ли он формализации? Как построить системы, проявляющие это свойство? Каким образом искусственный и человеческий интеллект вписываются в более широкий контекст теории интеллектуальных систем? В разделе 16.1 рассматривается пересмотренное определение искусственного интеллекта. Оно свидетельствует о следующем. Хотя работа в области ИИ и основана на гипотезе о физической символьной системе Ньюэлла и Саймона, сегодня набор ее средств и методов значительно расширился. Эта область покрывает гораздо более широкий круг вопросов. Анализируются альтернативные подходы к вопросу об интеллекте. Они рассматриваются и как средства проектирования интеллектуальных устройств, и как составные части теории интеллектуальных систем. В разделе 16.2 основное внимание читателя будет сконцентрировано на использовании методов современной когнитивной психологии, нейросетевых вычислений и эпистемологии для лучшего понимания области искусственного интеллекта.

Наконец, в разделе 16.3 обсуждаются задачи, стоящие сегодня как перед практиками ИИ, так и перед специалистами по формированию понятий. Хотя традиционные подходы к ИИ зачастую обвиняют в рационалистском редукционизме, новые междисциплинарные методы тоже нередко страдают подобными недостатками. Например, разработчики генетических алгоритмов и исследователи искусственной жизни определяют интеллект с точки зрения дарвинизма: "Разумно то, что выживает". Знание в сложном мире внедренных агентов часто сводится к формуле "знаю, как сделать", а не к "знаю, что делаю". Но для ученых ответы требуют пояснений, их не устраивает одна лишь "успешность" или "выживаемость" моделей. В этой заключительной главе мы обсудим будущее ИИ, сформулировав насущные для создания вычислительной теории интеллекта вопросы, и придем к выводу, что эмпирическая методология является важным, если не наилучшим орудием для исследования природы интеллекта.

16.1. Искусственный интеллект: пересмотренное определение

16.1.1. Интеллект и гипотеза о физической символьной системе

Основываясь на материале предыдущих 15 глав, можно сформулировать пересмотренное определение искусственного интеллекта.

ИИ- это дисциплина, исследующая закономерности, лежащие в основе разумного поведения, путем построения и изучения артефактов, предопределяющих эти закономерности.

Согласно этому определению искусственный интеллект в меньшей степени представляет собой теорию закономерностей, лежащих в основе интеллекта, и в большей - эмпирическую методологию создания и исследования всевозможных моделей, на которые эта теория опира-

Глава 16. Искусственный интеллект как эмпирическая проблема 781

ется. Этот вывод проистекает из научного метода проектирования и проведения экспериментов с целью усовершенствования текущей модели и постановки дальнейших экспериментов. Однако это определение, как и сама область ИИ, бросает вызов многовековому философскому мракобесию в вопросе природы разума. Оно дает людям, которые жаждут понимания (что, возможно, является главной характеристикой человека), альтернативу религии, суевериям, картезианскому дуализму, пустым теориям нового времени или поискам разума в каких-то не открытых еще закоулках квантовой механики [Penrose, 1989]. Если наука, исследующая искусственный интеллект, и внесла какой-то вклад в человеческие знания, то он подтверждает следующее. Разум - это не мистический эфир, пронизывающий людей и ангелов, а, скорее, проявление принципов и законов, которые можно постичь и применить в конструировании интеллектуальных машин. Необходимо отметить, что наше пересмотренное определение не касается интеллекта, оно определяет роль искусственного интеллекта в изучении природы и феномена разумности.

Исторически главенствующий подход к искусственному интеллекту включал построение формальных моделей и соответствующих им механизмов рассуждений, основанных на переборе. Ведущим принципом ранней методологии искусственного интеллекта являлась гипотеза о физической символьной системе (physical symbol system), впервые сформулированная Ньюэллом и Саймоном [Newell и Simon, 1976]. Эта гипотеза гласит следующее.

Физическая система проявляет разумное в широком смысле поведение тогда и только тогда, когда она является физической символьной системой.

Достаточность означает, что разумность может быть достигнута каждой правильно организованной физической символьной системой.

Необходимость означает, что каждый агент, проявляющий разумность в общепринятом смысле, должен являться физической символьной системой. Необходимое условие этой гипотезы требует, чтобы любой разумный агент, будь-то человек, инопланетянин или компьютер, достигал разумного поведения путем физической реализации операций над символьными структурами.

Разумное в широком смысле поведение (general intelligent action) означает действия, характерные для поведения человека. Физически ограниченная система ведет себя соответственно своим целям, приспосабливаясь к требованиям окружающей среды.

Ньюэлл и Саймон собрали аргументы в пользу необходимого и достаточного условий [Newell и Simon, 1976]; [Newell, 1981]; [Simon, 1981]. В последующие годы специалисты в области ИИ и когнитологии исследовали территорию, очерченную этой гипотезой.

Гипотеза о физической символьной системе привела к трем важнейшим принципам методологии: использованию символов и символьных систем в качестве средства для описания мира; разработке механизмов перебора, в особенности эвристического, для исследования границ потенциальных умозаключений таких систем; отвлеченности когнитивной архитектуры. Имеется в виду предположение о том, что правильно построенная символьная система может проявлять интеллект в широком смысле независимо от средств реализации. Наконец, с этой точки зрения ИИ становится эмпирической и конструктивной дисциплиной, которая изучает интеллект, строя его действующие модели.

Языковые знаки, называемые символами, используются для обозначений или ссылок на различные сторонние объекты. Как вербальные знаки в естественном языке, символы заме-

782 Часть VII. Эпилог

няют или ссылаются на конкретные вещи в мире разумного агента. Например, для этих объ-ектно-ссылочных связей можно предложить некоторый вариант семантики (см. раздел 2.3).

С точки зрения символьных систем использование символов в ИИ уходит далеко за пределы такой семантики. Символами здесь представляются все формы знаний, опыта, понятий и причинности. Все подобные конструктивные работы опираются на тот факт, что символы вместе со своей семантикой могут использоваться для построения формальных систем. Они определяют язык представления (representation language). Эта возможность формализовать символьные модели принципиальна для моделирования интеллекта как выполняемой компьютерной программы. В этой книге было детально изучено несколько представлений, в том числе предикатное исчисление, семантические сети, сценарии, концептуальные графы, фреймы и объекты.

Математика формальных систем позволяет говорить о таких вещах, как непротиворечивость, полнота и сложность, а также обсуждать организацию знаний.

Эволюция формализмов представления позволяет установить более сложные (широкие) семантические отношения. Например, системы наследования формируют семантическую теорию таксономического знания и его роли в интеллекте. Формально определяя наследование классов, такие языки облегчают построение интеллектуальных программ и предоставляют удобно тестируемые модели организации возможных категорий интеллекта.

Схемы представления и их использование в формальных рассуждениях тесно связаны с понятием поиска. Поиск - это поочередная проверка узлов в априори семантически описанной сети представления на предмет нахождения решения задачи или подзадач, выявления симметрии задачи и тому подобного (в зависимости от рассматриваемого аспекта).

Представление и поиск связаны, поскольку соотнесение задачи с конкретным представлением определяет априорное пространство поиска. Действительно решение многих задач можно значительно усложнить, а то и вовсе сделать невозможным, неудачно выбрав язык представления. Последующее обсуждение индуктивного порога в этой главе проиллюстрирует эту точку зрения.

Выразительным и часто цитируемым примером связи между поиском и представлением, а также трудности выбора удобного представления является задача размещения костей домино на усеченной шахматной доске. Допустим, имеется шахматная доска и набор костей домино, причем каждая закрывает ровно две клетки на доске. Положим также, что у доски не хватает нескольких клеток - на рис. 16.1 отсутствуют верхний левый и нижний правый уголки.

Рис. 16.1. Усеченная шахматная доска с двумя клетками, закрытыми костью домино

Глава 16. Искусственный интеллект как эмпирическая проблема

783

Задача состоит в том, чтобы установить, можно ли разместить кости домино на доске так, чтобы все поля были закрыты, и при этом каждая кость покрывала две и только две клетки. Можно попытаться решить проблему, перебрав все варианты расположения костей. Это типичный пример решения на основе поиска, который является естественным следствием представления доски в виде простой матрицы, игнорирующим такие, казалось бы, незначительные особенности, как цвет поля. Сложность подобного поиска просто невероятна. Для эффективного решения необходимо применение эвристических методов. Например, можно отсечь частные решения, которые оставляют изолированными отдельные клетки. Можно также начать с решения задачи для досок меньшего размера, таких как 2x2, 3x3, и постараться расширить решение до ситуации 8x8.

Опираясь на более сложное представление, можно получить изящное решение. Для этого нужно учесть тот факт, что каждая кость должна одновременно покрывать белую и черную клетки. На усеченной доске 32 черные клетки, но лишь 30 белых, следовательно, требуемое размещение невозможно. Таким образом, в системах, основанных на символьных рассуждениях, возникает серьезный вопрос: существуют ли представления, позволяющие оперировать знаниями с такой степенью гибкости и творческого подхода? Как может конкретное представление изменять свою структуру по мере появления новых сведений о предметной области?

Эвристика - это третий важный компонент символьного ИИ после представления и поиска. Эвристика - это механизм организации поиска среди альтернатив, предлагаемых конкретным представлением. Эвристики разрабатываются для преодоления сложности полного перебора, являющейся непреодолимым барьером на пути получения полезных решений многих классов интересных задач. В компьютерной среде, как и в человеческом обществе, интеллект нуждается в обоснованном решении "что делать дальше". На протяжении истории развития ИИ эвристики принимали множество форм.

Такие ранние методы решения задач, как метод поиска экстремума (hill climbing) в шашечной программе (см. главу 4) или анализ целей и средств (means-ends analysis) в обобщенной системе решения задач General Problem Solver (см. главу 12), пришли в ИИ из других дисциплин, таких как исследование операций (operations research), и постепенно выросли до общеприменимых методов решения задач ИИ. Характеристики поиска, включая допустимость (admissibility), монотонность (monotonicity) и осведомленность (informedness), являются важными результатами этих ранних работ. Подобные методы часто называют слабыми (weak methods). Слабые методы были разработаны как универсальные стратегии поиска, рассчитанные на применение в целых классах предметных областей [Newell and Simon, 1972], [Ernst и Newell, 1969]. Эти методы и их характеристики рассмотрены в главах 3, 4, 5 и 12.

В главах 6, 7 и 8 представлены сильные методы (strong methods) для решения задач ИИ с использованием экспертных систем на основе продукционных правил, рассуждений с использованием моделей (model-based reasoning) и примеров (case-based reasoning), а также символьного обучения (symbol-based learning). В отличие от слабых, сильные методы фокусируют внимание на информации, специфичной для каждой предметной области, будь то медицина внутренних органов или интегральное исчисление. Сильные методы лежат в основе экспертных систем и других подходов к решению задач с активным усвоением знаний. В сильных методах особое значение придается количеству данных, необходимых для решения задачи, обучению и пополнению знаний, их синтаксическому представлению, управлению неопределенностью, а также вопросам о качестве знаний.

784 Часть VII. Эпилог

Почему до сих пор не существует действительно интеллектуальных символьных систем

Характеристика интеллекта как физической символьной системы вызывает немало нареканий. Большую их часть легко отвергнуть, рассмотрев вопросы семантического значения и обоснования (grounding) концепции символов и символьных систем. Вопрос "смысла", конечно, тоже бьет по идее интеллекта как поиска в предварительно интерпретированных символьных структурах. Понятие смысла в традиционном ИИ развито весьма слабо. Тем не менее искушение сдвинуться в сторону более "математизированной" семантики, например, теории возможных миров (possible worlds), представляется ошибочным. Такой метод уходит корнями к рационалистской идее подмены гибкого эволюционирующего интеллекта материализованного агента миром ясных, четко определенных идей.

Обоснование смысла - это проблема, которая всегда путала планы как приверженцев, так и критиков искусственного интеллекта, а также когнитологов. Проблема обоснования сводится к следующему: как символы могут иметь смысл? В работе [Searle, 1980] она рассматривается на примере так называемой "китайской комнаты". Автор помещает себя в комнату, предназначенную для перевода китайских предложений на английский. Ему передают набор китайских иероглифов, а он отыскивает значение иероглифов в большом каталоге и передает на выход соответствующий набор английских символов. Автор заявляет, что даже без знания китайского языка его "систему" можно рассматривать как машину - переводчик с китайского на английский.

Но здесь возникает одна проблема. Любой специалист, работающий в области машинного перевода или понимания естественных языков (см. главу 13), может возразить, что "переводчик", слепо сопоставляющий один набор символов с другим, выдает результат очень низкого качества. Более того, возможности текущего поколения интеллектуальных систем по "осмысленной" интерпретации набора символов весьма ограничены. Проблема слишком бедной опорной семантики распространяется и на вычислительно реализованные сенсорные модальности, будь то визуальные, кинестетические или вербальные.

Что касается понимания естественного языка, Лакофф и Джонсон [Lakoff и Johnson, 1999] возражают, что способность создавать, использовать, обменивать и интерпретировать осмысленные символы является следствием интеграции человека в изменяющуюся социальную среду. Благодаря ей возникли человеческие способности выживания, эволюционирования и продолжения рода. Она сделала возможными рассуждения по аналогии, юмор, музыку и искусство. Современные средства и методы искусственного интеллекта и впрямь весьма далеки от способности кодировать и использовать эквивалентные по "смыслу" системы.

Прямым следствием бедной семантики является то, что методология поиска в традиционном ИИ рассматривает лишь предварительно интерпретированные состояния и их контексты. Это означает, что создатель программы ИИ связывает с используемыми символами семантический смысл. Поэтому интеллектуальные системы, включая системы обучения и понимания естественного языка, могут строить лишь некую вычисляемую функцию в этой интерпретации. Таким образом, большая часть систем ИИ очень ограничена в возможности построения новых смысловых ассоциаций по мере изучения окружающего мира [Lewis и Luger, 2000].

Вследствие стесненных возможностей семантического моделирования наиболее значительные успехи связаны с разработкой приложений, в которых можно абстрагироваться от чересчур широкого контекста и в то же время описать основные компоненты решения задачи с помощью заранее интерпретируемых символьных систем. Большая их часть

Глава 16. Искусственный интеллект как эмпирическая проблема 785

упоминалась в этой книге. Но и такие системы не поддерживают множественных интерпретаций и ограничены в способности восстанавливать работоспособность после сбоя.

На протяжении всей недолгой истории искусственного интеллекта изучались различные варианты гипотезы о физической символьной системе. Были разработаны альтернативы этому подходу. Как показано в последних главах этой книги, символьная система и поиск- не единственно возможные средства реализации интеллектуальной системы. Вычислительные модели, основанные на работе органического мозга, а также на процессах биологической эволюции, предоставляют альтернативную базу для понимания интеллекта в терминах научно познаваемых и эмпирически воспроизводимых процессов. Оставшаяся часть этого раздела посвящена обсуждению этих подходов.

16.1.2. Коннекционистские, или нейросетевые, вычислительные системы

Существенной альтернативой гипотезе о физической символьной системе являются исследования в области нейронных сетей и других, заимствованных из биологии, вычислительных моделей. Нейронные сети, например, являются физически реализуемыми вычислительными моделями познания, не основанными на предварительно интерпретированных символах, которыми точно описывается предметная область. Поскольку знания в нейронной сети распределены по всей ее структуре, зачастую сложно (а то и невозможно) соотнести конкретные понятия с отдельными узлами или весовыми коэффициентами. Фактически любая часть сети может служить для представления разных понятий. Следовательно, нейронные сети являются хорошим контрпримером, по крайней мере, условию гипотезы о физических символьных системах.

Нейронные сети и генетические алгоритмы сместили акцент исследований ИИ с проблем символьного представления и стратегий формальных рассуждений на проблемы обучения и адаптации. Нейронные сети, подобно человеческим существам и животным, умеют адаптироваться к миру. Структура нейронной сети формируется не только при ее разработке, но и при обучении. Интеллект, основанный на нейронной сети, не требует переведения мира на язык символьной модели. Скорее, сеть формируется при взаимодействии с миром, который отражается в неявной форме опыта. Этот подход внес значительный вклад в наше понимание интеллекта. Он дал правдоподобное описание механизмов, лежащих в основе физической реализации процессов мышления; более жизнеспособную модель обучения и развития; демонстрацию возможности путем простой локальной адаптации сформировать сложную систему, реагирующую на реальные явления; а также мощное орудие для когнитивной теории нейронных систем (neuroscience).

Именно благодаря своей многогранности нейронные сети помогают ответить на множество вопросов, лежащих за пределами впечатляющих возможностей символьного ИИ. Важный класс таких вопросов касается проблемы перцепции. Природа не столь щедра, чтобы представить работу нашего восприятия в виде набора точных формул предикатного исчисления. Нейронные сети обеспечивают модель выделения "осмысленных" образов из хаоса сенсорных стимулов.

Из-за своего распределенного представления нейронные сети часто более устойчивы, нежели аналогичные символьные системы. Соответствующим образом обученная нейронная сеть может эффективно классифицировать новые входные данные, проявляя подобное человеческому восприятие, основанное не на строгой логике, а на "схожести". Аналогично потеря нескольких нейронов серьезно не повлияет на производительность большой нейронной сети. Это является следствием избыточности, часто присущей сетевым моделям.

786 Часть VII. Эпилог

Наверное, самым притягательным аспектом коннекционистских сетей является их способность обучаться. Вместо построения подробной символьной модели мира нейронные сети благодаря гибкости своей структуры могут адаптироваться на основе опыта. Они не столько строят модель, сколько сами формируются под влиянием мира. Обучение является одним из главных аспектов интеллекта. И именно из проблемы обучения вырастают наиболее сложные вопросы, связанные с нейросетевыми вычислительными системами.

Почему мы до сих пор не создали мозг

Недавние исследования в когнитивной теории нейронных систем [Squire и Kosslyn, 1998], [Gazzaniga, 2000] представляют новый аспект в понимании когнитивной архитектуры человеческого мозга. В этом разделе мы кратко ознакомимся с некоторыми открытиями в этой области, проведя параллель между ними и искусственным интеллектом. Эти вопросы будут рассмотрены с трех позиций: на уровне, во-первых, нейрона, во-вторых, нейронной архитектуры и, в-третьих, когнитивного представления проблемы кодирования (encoding).

На уровне отдельного нейрона Шепард [Shephard, 1998] и Карлсон [Carlson, 1994] определяют множество различных типов нейронной архитектуры, построенной из клеток, каждая из которых выполняет специализированную функцию и играет свою роль в большей системе. Они выделяют клетки рецепторов наподобие клеток кожи, которые передают входную информацию другим скоплениям клеток, внутренним нейронам, основная задача которых сводится к передаче информации внутри скоплений клеток, и моторным нейронам, формирующим выход системы.

Нейронная активность имеет электрическую природу. Состояние возбуждения или покоя определяется характером ионных потоков в нейрон и из него. У типичного нейрона потенциал покоя составляет приблизительно -70 мВ. Когда клетка активна, окончание аксона выделяет определенные вещества. Эти химические вещества, называемые медиаторами (neurotransmitters), взаимодействуют с постсинаптической мембраной, обычно вливаясь в нужные рецепторы и возбуждая тем самым дальнейшие ионные токи. Потоки ионов, достигая критического уровня, около -50 мВ, формируют потенциал возбуждения (action potential) - триггерный механизм, однозначно определяющий степень возбуждения клетки. Таким образом, нейроны сообщаются, обмениваясь последовательностями двоичных кодов.

Существует два вида постсинаптических изменений, вызванных достижением потенциала возбуждения: тормозящие (inhibitory), наблюдаемые в основном в межнейронных структурах клеток, и возбуждающие (excitatory). Такие положительные и отрицательные потенциалы постоянно генерируются в синапсах дендритной системы. Когда результирующее влияние всех этих событий изменяет потенциалы мембран соответствующих нейронов от -70 мВ до примерно -50 мВ, пороговое значение превышается, и вновь инициируются ионные токи в аксонах этих клеток.

На уровне нейронной архитектуры в коре головного мозга (тонком слое, покрывающем полушария мозга) содержится приблизительно 1010 нейронов. Большая часть коры имеет складчатую форму, что увеличивает ее площадь поверхности. С точки зрения вычислительной системы необходимо учитывать не только количество синапсов, но и нагрузочные способности по входу и выходу. Шепард [Shephard, 1998] примерно оценивает оба этих параметра числом 105.

Кроме различий в клетках и архитектурах нейронных и компьютерных систем, существует более глубокая проблема когнитивного представления. Мы, к примеру, совершен-

Глава 16. Искусственный интеллект как эмпирическая проблема 787

но ничего не знаем о том, как в коре кодируются даже простейшие воспоминания. Или как человек узнает лица, и каким образом распознавание лица может соотноситься агентом с чувствами радости или печали. Мы очень много знаем о физико-химических аспектах устройства мозга, но относительно мало о том, как нервная система кодирует сведения и использует эти образы в нужном контексте.

Один из наиболее сложных вопросов, с которым сталкиваются исследователи и неврального, и вычислительного толка, касается роли врожденного знания в обучении. Можно ли провести эффективное обучение "с нуля", без начального знания, основываясь исключительно на опыте; или же должен присутствовать некий индуктивный порог? Опыт разработки обучающихся программ предполагает необходимость какого-либо начального знания, обычно выражающегося в форме индуктивного порога. Оказалось, что способность нейронных сетей строить осмысленное обобщение на основе обучающего множества зависит от числа нейронов, топологии сети и специфики алгоритмов обучения. Совокупность этих факторов составляет индуктивный порог, играющий не менее важную роль, чем в любом символьном представлении. Например, находится все больше подтверждений тому, что дети наследуют совокупность "аппаратно прошитых" когнитивных предпосылок (порогов), благодаря которым возможно обучение в таких областях, как язык и интуитивное понимание законов природы. Представление врожденных порогов в нейронных сетях сегодня является областью активных исследований [Elman и др., 1996].

Вопрос о врожденных порогах отходит на второй план, если обратить внимание на более сложные проблемы обучения. Предположим, нужно разработать вычислительную модель научного открытия и смоделировать переход Коперника от геоцентрического к гелиоцентрическому взгляду на устройство вселенной. Для этого требуется представить в компьютерной программе теории Коперника и Птолемея. Хотя эти взгляды можно представить в качестве активационных схем нейронной сети, такие сети ничего не скажут о них, как о теориях. Человек предпочитает получать объяснения вроде: "Коперник был озадачен сложностью системы Птолемея и предпочел более простую модель, в которой планеты вращаются вокруг Солнца". Подобные объяснения требуют символьного выражения. Очевидно, нейронные сети должны обеспечивать символьное обоснование. В конце концов, человеческий мозг - это нейронная сеть, но она неплохо умеет обращаться с символами. И тем не менее символьное обоснование в нейронных сетях - важная, но все еще открытая проблема.

Еще одной проблемой является роль развития в обучении. Дети не могут просто учиться на доступных данных. Их способность к обучению в конкретных областях проявляется на четко определенных стадиях развития [Karmiloff-Smith, 1992]. Возникает любопытный вопрос: является ли этот факт всецело следствием человеческой биологии, или же он отражает некие принципиально необходимые ограничения на способность интеллекта познавать закономерности окружающего мира? Могут ли подобные стадии развития служить механизмом для разбиения задачи обучения на более простые подзадачи? Возможно ли, что система искусственно налагаемых ограничений на развитие искусственной сети является необходимой основой для обучения в сложном мире?

Применение нейронных сетей для решения практических задач ставит дополнительные проблемы перед исследователями. Те самые свойства нейронных сетей, которые делают их такими привлекательными (способность адаптироваться, устойчивость к недостаточности или неоднозначности данных), одновременно создают препятствия для их практического применения. Поскольку нейронные сети обучаются, а не программируются, их поведение сложнее предсказать. Существует несколько общих принципов проек-

788 Часть VII. Эпилог

тирования сетей, которые вели бы себя нужным образом в заданной предметной области. Однако сложно объяснить, почему нейронная сеть пришла к определенному выводу. Обычно такие объяснения принимают вид каких-то статистических соображений. Все вышеперечисленные проблемы являются предметом текущих исследований.

Возникает вопрос, так ли уж различаются в качестве моделей интеллекта коннекцио-нистские сети и символьные системы ИИ? В них достаточно много общего. В обоих подходах процесс "мышления" сводится к вычислительным операциям, имеющим фундаментальные и формальные ограничения, такие как описанная в главе 2 гипотеза Чер-ча-Тьюринга (Church-Turing) [Luger, 1994]. Оба подхода предлагают модель разума, применимую в практических задачах. Более того, оба подхода отвергают философию дуализма и помещают истоки разума в структуру и функцию физических устройств.

Мы верим, что согласование этих двух очень разных подходов неизбежно. Исключительным вкладом в науку стало бы построение теории преобразования символьного представления в конфигурацию сети, и, в свою очередь, влияния на ее дальнейшую адаптацию. Такая теория помогла бы во многих исследованиях, например, интеграции в единую интеллектуальную систему нейросетевого восприятия и систем рассуждения на основе знаний. Тем не менее в ближайшее время у приверженцев обоих взглядов будет достаточно работы, и мы не видим никаких причин, мешающих им сосуществовать. Для тех же, кого смущает подобная противоречивость двух моделей интеллекта, приведем пример из физики, в которой свет иногда удобнее рассматривать как волну, а иногда - как поток частиц.

16.1.3. Агенты, интеллект и эволюция

Агентные вычисления и модульные теории познания ставят перед исследователями систем ИИ интересные вопросы. Одна из известных школ когнитологии полагает, что разум формируется из наборов специализированных функциональных элементов [Minsky, 1995], [Fodor, 1983]. Все модули имеют четкую специализацию и используют широкий диапазон врожденных структур и функций, от "аппаратно прошитого" решения задач до индуктивного порога. Это связано с разнообразием проблем, которыми они как практические агенты должны заниматься. В этом есть смысл: как можно обучить нейронную сеть заниматься и перцепцией, и двигательными функциями, и запоминанием, и логическими рассуждениями? Модульные теории интеллекта предоставляют базу для поиска ответа на этот вопрос, а также направление дальнейшего исследования таких вопросов, как природа индуктивного порога в отдельных модулях или механизмы модульного взаимодействия.

Генетические и эволюционные вычислительные модели обеспечивают новые захватывающие подходы к пониманию как человеческого, так и искусственного разума. Демонстрируя возможность рассмотрения разумного поведения как совокупности работы большого числа ограниченных независимых агентов, теория генетических и эволюционных вычислений решает проблему представления сложного разума в виде результата взаимодействия относительно простых структур.

В работе [Holland, 1995] приведен пример, в котором механизмы обеспечения хлебом большого города (например Нью-Йорка) демонстрируют процесс возникновения интеллекта в агентской системе. Вряд ли можно написать централизованный планировщик, который обеспечивал бы жителей Нью-Йорка привычным им разнообразием сортов хлеба. Да и неудачный эксперимент коммунистического мира по внедрению централизованного управления явно показал ограниченность такого подхода. Даже несмотря на практические сложности написания алгоритма такого централизованного планирования, сла-

Глава 16. Искусственный интеллект как эмпирическая проблема 789

бо скоординированные в действиях городские пекари, торговцы и поставщики сырья и так неплохо справляются с решением проблемы. Эволюционные агентские системы не имеют центрального плана. Любой булочник владеет весьма ограниченными сведениями о потребностях города в хлебе. Он всего лишь старается оптимизировать возможности своего бизнеса. Решение глобальной проблемы складывается из коллективной деятельности таких независимых локальных агентов.

Демонстрируя, как целенаправленное, устойчивое к флуктуациям и почти оптимальное поведение может складываться из взаимодействия отдельных локальных агентов, эти модели дают еще один ответ на старый философский вопрос о происхождении разума. Главный урок эволюционных подходов к интеллекту состоит в том, что цельный интеллект может возникнуть и возникает из взаимодействия множества простых, отдельных, локальных, овеществленных агентских интеллектов.

Вторая главная особенность эволюционных моделей заключается в том, что они опираются на дарвиновский принцип естественного отбора как на основной механизм, формирующий поведение отдельных агентов. Возвращаясь к примеру с булочниками, трудно утверждать, что каждый отдельный пекарь ведет себя "глобально оптимальным" образом. Источник такой оптимальности- не централизованный проект, а простой факт. Булочники, которые плохо удовлетворяют нужды своих покупателей, разоряются. Путем неустанных, многократных селективных воздействий отдельные булочники приходят к модели поведения, которая обеспечивает как их собственное выживание, так и общественную полезность.

Комбинация распределенной, агентской архитектуры и адаптивных воздействий естественного отбора - мощная модель эволюции и работы разума. Эволюционные психологи [Cosmides и Tooby, 1992, 1994], [Вагкошидр., 1992] разработали модель формирования врожденной структуры и индуктивного порога человеческого мозга в процессе естественного отбора. Основа эволюционной психологии - это рассмотрение разума как модульной системы взаимодействующих специализированных агентов. В эволюционной психологии ум часто сравнивают со швейцарским ножом - набором специализированных инструментов, предназначенных для решения различных задач. Появляется все больше свидетельств тому, что человеческий интеллект действительно в высокой степени является модульной системой. В [Fodor, 1983] приводятся философские доводы в пользу модульной структуры интеллекта. Минский [Minsky, 1985] исследовал различные применения теорий модульности в сфере искусственного интеллекта. Такая архитектура имеет важное значение для теорий эволюции интеллекта. Сложно представить себе, как эволюция могла сформировать цельную систему такой сложности, как человеческий мозг. С другой стороны, правдоподобным выглядит тот факт, что эволюция в течение миллионов лет могла бы успешно сформировать отдельные, специализированные познавательные навыки. Затем она бы могла работать над комбинациями модулей, формируя механизмы их взаимодействия, обмена информацией и сотрудничества, позволяющие в результате решать все более сложные задачи познания [Mithen, 1996].

Теории нейронной селекции [Edelman, 1992] показывают, как эти же процессы могут отвечать за адаптацию отдельной нервной системы. Модели нейронного дарвинизма описывают адаптацию нейронных систем в терминах Дарвина: в процессе селекции в ответ на воздействия внешней среды происходит усиление одних цепочек в мозге и ослабление других. В отличие от символьных методов обучения, которые пытаются выделить информацию из обучающих данных и использовать ее для построения модели мира, теории нейронной селекции рассматривают влияние селективных воздействий на популяции нейронов и их взаимодействие. Эдельман [Edelman, 1992, С. 81] утверждает:

790 Часть VII. Эпилог

Рассматривая изучение мозга как науку о познании, я подразумеваю, что познание не является инструктивным процессом. Здесь не происходит непосредственной пересылки информации, как ее нет в эволюционных или иммунных процессах. Напротив, познание селективно.

Агентные технологии предоставляют также модели социального взаимодействия. Используя агентные подходы, экономисты построили информативные (если не полностью прогнозирующие) модели экономических рынков. Агентные технологии оказывают всевозрастающее влияние на построение распределенных компьютерных систем, разработку средств поиска в Internet и проектирование сред совместной разработки.

Наконец, агентные модели оказали немалое влияние на теорию сознания. Например, Даниэль Дэннетт [Dennett, 1991] рассматривает функцию и структуру сознания, отталкиваясь от агентной архитектуры интеллекта. Он начинает с замечания, что вопрос о местоположении сознания в мозге или разуме некорректен. Напротив, его множественная теория сознания (multiple draft theory of consciousness) основана на рассмотрении сознания во взаимодействии агентов в распределенной архитектуре интеллекта. Во время перцепции, управления двигательными функциями, решения задач, обучения и другой психической активности формируются объединения взаимодействующих агентов. Эти сочетания очень динамичны и изменяются в зависимости от потребностей в различных ситуациях. Сознание, по Дэннету, служит связующим механизмом этих объединений агентов, оно поддерживает взаимодействие агентов. Совокупность агентов становится основой когнитивной обработки данных.

Ограничения агентного представления интеллекта

Развитие эволюционного подхода привело к возникновению новых вопросов. Например, еще предстоит понять весь путь эволюции высокоуровневых познавательных способностей языка. Подобно попыткам палеонтологов реконструировать эволюцию видов, отслеживание развития этих высокоуровневых проблем связано с большим объемом кропотливой роботы. Необходимо перечислить все агенты, лежащие в основе архитектуры разума, и отследить их эволюцию во времени.

Важная проблема для агентских теорий - объяснение взаимодействий между модулями. Хотя модель ума как "швейцарского ножа" полезна для интуитивного понимания, модули, из которых состоит интеллект, не так независимы, как лезвия перочинного ножика. Разум демонстрирует широкие, весьма изменчивые взаимодействия между когнитивными областями: мы можем говорить о вещах, которые видим, что выявляет взаимодействие между визуальным и лингвистическим модулями. Мы можем сооружать здания, служащие специфичным социальным целям, что свидетельствует о взаимодействии между технической и социальной сторонами интеллекта. Поэты могут строить метафоры для описания зрительных сцен, демонстрирующие гибкое взаимодействие между визуальным и тактильным модулями. Исследование представлений и процессов, делающих возможными эти межмодульные взаимодействия, является областью текущих исследований [Karmiloff-Smith, 1992], [Mithen, 1996], [Lakoff и Johnson, 2000].

Все важнее становятся практические применения агентных технологий. Используя компьютерное моделирование на основе агентов, можно создать сложные системы, для которых не существует аналитического описания, и которые из-за этого ранее были недоступны для изучения. Методы моделирования применяются для описания широкого спектра явлений, например, адаптации человеческой иммунной системы, управления сложными процессами, включая ускорение частиц, поведения мировых рынков валют, метеорологии. Вопросы представления и вычислительной реализации, которые предстоит решить для созда-

Глава 16. Искусственный интеллект как эмпирическая проблема 791

ния таких моделей, определяют направление исследований в построении представлений знаний, алгоритмов и даже разработки компьютерной аппаратуры.

Другие практические вопросы, с которыми предстоит иметь дело агентным архитектурам, включают протоколы межагентного взаимодействия, особенно в случаях, когда локальные агенты имеют ограниченные знания о проблеме в целом или о том, какими знаниями уже могут обладать другие агенты. Более того, существует несколько алгоритмов для разбиения больших задач на агентно-ориентированные подзадачи и распределения ограниченных ресурсов между агентами. Эти и другие вопросы агентного представления были рассмотрены в подразделе 6.4.2.

Пожалуй, наиболее увлекательный аспект эволюционной теории интеллекта- это возможность описать различные виды психической деятельности единой моделью возникновения порядка из хаоса. Краткий обзор, проведенный в этом разделе, позволяет выделить работы, использующие эволюционную теорию для моделирования ряда процессов: от эволюции интеллекта до конструирования экономических и социальных моделей поведения. Есть нечто чрезвычайно привлекательное в той идее, что эволюционные процессы, описываемые теорией Дарвина, могут объяснить разумное поведение во многих масштабах: от взаимодействия индивидуальных нейронов до формирования молекулярной структуры мозга или функционирования экономических рынков и социальных систем. Оказывается, интеллект подобен фрактальной структуре, где одни и те же процессы действуют в любых масштабах и во всей системе в целом.

Далее будут рассмотрены психологические и философские аспекты человеческого мышления, которые повлияли на создание, разработку и применение теории искусственного интеллекта.

16.2. Теория интеллектуальных систем

Основная группа исследователей искусственного интеллекта сосредоточила свою деятельность на понимании человеческого разума совсем не случайно. Люди обеспечивают прототипы и примеры интеллектуальных действий. Поэтому разработчики искусственного интеллекта редко игнорируют "человеческий" подход, хотя обычно и не ставят перед собой цели заставить программы действовать по примеру людей. Так, в приложениях компьютерной диагностики программы зачастую моделируют рассуждения людей-экспертов, работающих в соответствующей области. А главное, понимание человеческого интеллекта - захватывающая и все еще открытая научная проблема.

Современная когнитология (cognitive science), или теория интеллектуальных систем (science of intelligent systems) [Luger, 1994], возникла с изобретением цифрового компьютера. Однако в главе 1 упоминалось, что у этой дисциплины были свои предшественники. Их список начинается с Аристотеля, Декарта и Буля и включает многих современных теоретиков, таких как Тьюринг, Мак-Каллок и Питтс, основоположники нейросетевых моделей, а также Джон фон Нейман - один из первых защитников концепции искусственной жизни. Эти исследования стали наукой лишь тогда, когда возникла возможность ставить эксперименты, основанные на теоретических соображениях, а точнее, с появлением компьютеров. Наконец-то можно задать вопрос: "Существует ли всеобъемлющая теория интеллекта?". Можно также спросить: "Может ли теория интеллектуальных систем помочь в создании искусственного разума?".

В нижеследующих разделах вкратце будет рассказано о том, как психология, эпистемология и социология повлияли на исследования в сфере ИИ.

792 Часть VII. Эпилог

16.2.1. Ограничения психологии

Ранние когнитологические исследования касались решения логических задач человеком. Такие системы учились играть в простые игры, планировать и осуществлять изучение понятий [Feigenbaum и Feldman, 1963], [Newell и Simon, 1972], [Simon, 1981]. В процессе работы над системой Logic Theorist (см. раздел 12.1) Ньюэлл и Саймон начали сравнивать свои вычислительные подходы со стратегиями поиска, применяемыми человеком. Исходными данными для них служили протоколы "мыслей вслух" (think-aloud protocols) - описания людьми своих мыслей в процессе обдумывания решения задачи, например, доказательства какой-нибудь теоремы. Ньюэлл и Саймон сравнили эти протоколы с поведениец компьютерной программы, работающей над той же задачей. Исследователи обнаружили поразительную схожесть и интересные отличия, как в задачах, так и в субъектах исследования.

Эти ранние проекты позволили создать методологию, применяемую в когнитологии в последующие десятилетия.

На основе данных, полученных от людей, решающих определенный класс про

блем, строится схема представления и соответствующая стратегия поиска для ре

шения задачи.

Отслеживается поведение компьютерной модели, решающей такую проблему.

Ведется наблюдение за людьми, работающими над решением задач, и отслежива

ются измеряемые параметры их процесса решения, а именно: протоколы "мыслей

вслух", движения глаз, записи промежуточных результатов.

Решения человека и компьютера сравниваются и анализируются.

Компьютерная модель пересматривается для следующего цикла экспериментов.

Эта эмпирическая методика описана в лекции Ньюэлла и Саймона, прочитанной по случаю вручения премии Тьюринга. Ее фрагмент был выбран в качестве эпиграфа к этой главе. Важным аспектом когнитологии является использование экспериментов для подтверждения работоспособности архитектуры решателя, будь то продукционная система, сеть связей или архитектура, основанная на взаимодействии распределенных агентов.

В последние годы к этим понятиям добавилось принципиально новое измерение. Теперь в процессе решения задач можно "разбирать" и изучать не только программы, но и людей, и другие формы жизни. Множество новых технологий получения изображений пополнили набор средств, применяемых для изучения активности коры мозга. К этим технологиям относится магнитная энцефалография (magnetoencephalography - MEG), которая регистрирует магнитные поля, создаваемые группами нейронов. В отличие от электрического магнитное поле не искажается костями и кожей черепа, следовательно, можно получить более четкое его изображение.

Другая технология - позитронная эмиссионная томография (positron emission tomography - PET). В кровеносный сосуд впрыскивается радиоактивное вещество, обычно О15. Когда определенная область мозга возбуждена, чувствительными детекторами регистрируется большее количество радиоактивного агента, чем в состоянии покоя этой области мозга. Сравнение изображений возбужденных и находящихся в покое областей помогает обнаруживать функциональную локализацию с разрешением примерно 1 см [Stytz и Frieder, 1990].

Еще один метод анализа нервной системы - функциональное магнитно-резонансное сканирование (functional magnetic resonance imaging - F-MRI). Этот подход происходит от более стандартного метода, основанного на ядерном магнитном резонансе (nuclear

Глава 16. Искусственный интеллект как эмпирическая проблема 793

magnetic resonance - NMR). Подобно методу PET, в этом подходе для выявления функциональной локализации используется сравнение изображений возбужденных и находящихся в покое областей мозга.

Дальнейший вклад в локализацию функций мозга сделали программные алгоритмы, разработанные Бараком Перлмуттером и его коллегами [Pearlmutter и Рагга, 1997], [Tang и др., 1999, 2000а, 20006]. Они тесно связаны с перечисленными выше методами. Благодаря этим исследованиям появилась возможность получить сложные образцы шума, часто возникающего на выходе устройств для получения изображений нервной системы. Это важный шаг в исследованиях, поскольку такие показатели, как движения глаз, дыхание и сердцебиение, связаны с исследуемыми схемами возбуждения нейронов.

Результаты недавних исследований в когнитивной теории нейронных систем [Squire и Kosslyn, 1998], [Shephard, 1998], [Gazzaniga, 2000] значительно улучшили понимание роли нейронной составляющей в интеллектуальной деятельности. Хотя анализ и критика таких результатов выходит за пределы рассмотрения данной книги, коснемся нескольких важных вопросов.

В области восприятия и внимания существует проблема связывания (binding prob

lem). Такие исследователи, как Энн Трисмэн [Triesman, 1993, 1998], отмечают, что

представление восприятия зависит от распределенных нейронных кодов, отве

чающих за сопоставление частей и качеств объектов, и ставят вопрос о том, какие

механизмы "связывают" информацию, относящуюся к конкретному объекту, и по

зволяют отличать этот объект от других.

В области визуального поиска рассматривается вопрос о том, какие нейронные меха

низмы обеспечивают восприятие объектов, входящих в большие, сложные сцены. Не

которые эксперименты показывают, что фильтрация информации о незначительных

объектах играет важную роль в определении целей поиска [Luck, 1998]. Вопрос о том,

как мы "учимся" видеть, исследуется в работе [Sagi и Таппе, 1998].

Работы [Gilbert, 1992, 1998] посвящены гибкости восприятия. Из них следует, что

видимая человеком картина не отражает точные физические характеристики сце

ны. Она значительно зависит от процессов, с помощью которых мозг пытается ин

терпретировать эту картину.

В [Ivry, 1998] рассматривается вопрос о том, каким образом кора мозга кодирует и

индексирует соотносящуюся во времени информацию, включая интерпретацию

ощущений и двигательную активность.

Стрессовые гормоны, вырабатываемые в состояниях эмоционального возбужде

ния, влияют на процессы памяти [Cahill и McGaugh, 1998]. Это соотносится с про

блемой обоснования (grounding): почему мысли, слова, ощущения имеют осмыс

ленное значение для агента? В каком смысле возможна "грусть в вещах", вергили-

евская lacremae reruml

Акустико-фонетические аспекты речи основаны на важных организационных

принципах, связывающих исследования в области нейронных систем с когнитив

ными и лингвистическими теориями [Miller и др., 1998]. В [Gazzaniga, 2000] рас

сматривается вопрос о том, как синтаксические и семантические составляющие

сочетаются в коре мозга.

Как индивидуум учится определенному языку, и какие нейрофизиологические

стадии соответствуют этому процессу? Этой проблеме посвящены работы

[Kuhl, 1993, 1998].

794 Часть VII. Эпилог

• В [O'Leary и др., 1999] затрагиваются следующие вопросы. Как понимать развитие, чем определяется пластичность критических периодов и реорганизации в процессе взросления, наблюдаемых в соматосенсорных системах млекопитающих? Критичны ли фазы развития для формирования интеллекта? Эти же вопросы рассматриваются в [Karmiloff-Smith, 1992], [Gazzaniga, 2000] и подразделе 16.1.2.

Практическая работа в сфере искусственного интеллекта не требует обширных познаний в вышеперечисленных и смежных нейронных и психологических областях. Но такие знания могут помочь в разработке интеллектуальных устройств, а также в определении места исследований ИИ в контексте общей теории интеллектуальных систем. Наконец, синтез психологии, нейрофизиологии и компьютерных наук- по-настоящему увлекательная задача. Но она требует детальной проработки эпистемологами, что будет нашей следующей темой для обсуждения.

16.2.2. Вопросы эпистемологии

Если не знаешь, куда идешь, придешь не туда, куда хочешь... - приписывается Йоги Берра (Yogi Berra)

Развитие искусственного интеллекта происходило в процессе решения множества важных задач и вопросов. Понимание естественных языков, планирование, рассуждения в условиях неопределенности и машинное обучение - все это типичные проблемы, которые отражают важные аспекты разумного поведения. Интеллектуальные системы, работающие в этих предметных областях, требуют знания целей и опыта в контексте конкретной социальной ситуации. Для этого в программе, которую человек пытается наделить "разумом", необходимо обеспечить возможность формирования понятий.

Процесс формирования понятий отражает как семантику, поддерживающую использование символов, так и структуру применяемых символов. Задача состоит в том, чтобы найти и использовать инвариантности, присущие данной предметной области. Термин "инвариант" используется для описания регулярностей или значимых, пригодных для использования, аспектов сложных рабочих сред. В данном рассмотрении термины символы и символьные системы используются в широком смысле. Они включают широкий спектр понятий: от четко определенных символов Ньюэла и Саймона [Newell и Simon, 1976] до узлов и сетевой архитектуры систем связей, а также эволюционирующих структур генетики и искусственной жизни.

Хотя рассматриваемые ниже вопросы характерны для большей части работ в сфере ИИ, остановимся на проблемах машинного обучения. Это обусловлено тремя причинами.

Во-первых, довольно глубокое изучение хотя бы одной ключевой предметной области искусственного интеллекта даст читателю более полное и точное представление о последних достижениях ИИ. Во-вторых, успехи в машинном обучении, а особенно в нейронных сетях, генетических алгоритмах и других эволюционных подходах, потенциально способны совершить революцию в сфере ИИ. Наконец, обучение- это одна из наиболее увлекательных областей исследований в искусственном интеллекте.

Несмотря на прогресс, обучение остается одной из наиболее трудных проблем, встающих перед исследователями ИИ. Далее мы обсудим три вопроса, сдерживающих сегодня продвижение в этой сфере: во-первых, обобщение и переобучение (generalization and overlearning), во-вторых, роль индуктивного порога (inductive bias) в обучении, в-третьих, дилемму эмпирика (empiricist's dilemma), или понимание эволюции без ограни-

Глава 16. Искусственный интеллект как эмпирическая проблема 795

чений. Последние две проблемы взаимосвязаны. Присущий многим алгоритмам индуктивный порог является выражением рационалистической проблемы. Порог определяется ожиданиями, т.е. то, чему мы обучаемся, зачастую зависит от того, чему хочется научиться. Есть и другая проблема. Иногда мы не располагаем априорными догадками о результате. Это, например, можно наблюдать в исследованиях, посвященных искусственной жизни. Можно ли утверждать: "Построй это, и оно будет работать, как нужно"? Если верить Йоги Берра (см. эпиграф к разделу), то, скорее всего, нет! Эти темы будут затронуты в следующем разделе.

Проблема обобщения

Примеры, использованные для представления разнообразных моделей обучения (символьных, коннекционистских и эволюционных), зачастую были слишком неестественны. Например, архитектуры связей часто содержали всего несколько узлов или один скрытый слой. Такие примеры уместны, поскольку основные законы обучения можно адекватно объяснить в контексте нескольких нейронов или слоев. Но стоит помнить, что в реальных задачах нейронные сети обычно значительно больше, и проблема масштаба здесь имеет значение. Например, для обучения с обратным распространением ошибки требуется большое количество обучающих примеров, а для решения сколько-нибудь практически интересных задач нужны большие сети. Многие исследователи ([Necht-Nielsen, 1990]; [Zurada, 1992], [Freeman и Scapura, 1991]) работали над проблемой выбора оптимального числа входных данных, соотношения между числом входных параметров и узлов в скрытом слое, определением количества проходов процесса обучения, достаточного для обеспечения сходимости. Здесь мы только констатировали, что эти проблемы сложные, важные и в большинстве случаев открытые.

Количество и качество обучающих данных важны для любого обучающего алгоритма. Без обширных исходных знаний о предметной области алгоритм обучения может не справиться с выделением образов при получении зашумленных, недостаточных или даже испорченных данных.

Смежная проблема - вопрос "достаточности" в обучении. В каких случаях алгоритмы можно назвать достаточно пригодными для выделения важных границ или инвариантов предметной области задачи? Приберечь ли запас входных данных для тестирования алгоритма? Отвечает ли количество имеющихся данных требуемому качеству обучения? Должно быть, суждение о "достаточности" является в большей степени эвристическим или даже эстетическим: мы, люди, часто рассматриваем алгоритмы как "достаточно хорошие".

Проиллюстрируем проблему обобщения на примере, используя метод обратного распространения ошибки для нахождения функции по набору заданных точек (рис. 16.2).

Линии вокруг этого набора представляют функции, найденные алгоритмом обучения. Напомним, что по завершении обучения алгоритму необходимо предоставлять новые входные данные, чтобы проверить качество обучения.

Рис. 16.2. Набор точек данных и три аппроксимирующие функции

Функция f1 представляет довольно точную аппроксимацию методом наименьших квадратов. Дальнейшее обучение системы может дать функцию f2, которая выглядит как достаточно "хорошая" аппроксимация набора данных. Но все же f2 не точно соответствует заданным точкам. Дальнейшее обуче-

796 Часть VII. Эпилог

ние может привести к функциям, которые точно аппроксимируют данные, но дают ужасные обобщения для новых входных данных. Это явление называют переобучением (overtraining) сети. Одной из сильных сторон обучения с обратным распространением ошибки является то, что в предметных областях многих приложений оно дает эффективные обобщения, т.е. аппроксимации функций, которые приближают обучающие данные и корректно обрабатывают новые. Тем не менее обнаружить точку, в которой сеть переходит из "недообученного" в переобученное состояние, - задача нетривиальная. Наивно думать, что можно построить сеть, или вообще какой-либо обучающий инструмент, снабдить его "сырыми" данными, а затем отойти в сторону и наблюдать за тем, как он вырабатывает самые эффективные и полезные обобщения, применимые к новым подобным проблемам.

Подведем итог, возвращая вопрос обобщения в контекст его эпистемологии. Когда решатель задач формирует и применяет обобщения в процессе решения, он создает инварианты или даже системы инвариантов в области задача-решение. Таким образом, качество и четкость таких обобщений могут быть необходимой основой для успешного осуществления проекта. Исследования в области обобщения задачи и процесса ее решения продолжаются.

назад содержание далее



ПОИСК:




© FILOSOF.HISTORIC.RU 2001–2023
Все права на тексты книг принадлежат их авторам!

При копировании страниц проекта обязательно ставить ссылку:
'Электронная библиотека по философии - http://filosof.historic.ru'