Методы автоматического обучения, рассмотренные в главах 9-11, и, следовательно, большая часть методов ИИ отражают индуктивные пороги, присущие их создателям. Проблема индуктивных порогов в том, что получаемые в результате представления и стратегии поиска дают средство кодирования в уже интерпретированном мире. Они редко могут предоставить механизмы для исследования наших интерпретаций, рождения новых взглядов или отслеживания и изменения неэффективных перспектив. Такие неявные предпосылки приводят к ловушке рационалистской эпистемологии, когда исследуемую среду можно увидеть лишь так, как мы ожидаем или научены ее видеть.
Роль индуктивного порога должна быть явной в каждом обучающем алгоритме. (Альтернативное утверждение гласит, что незнание индуктивного порога вовсе не означает того, что он не существует и не влияет критически на параметры обучения.) В символьном обучении индуктивные пороги обычно очевидны, например, использование семантической сети для концептуального обучения. В обучающем алгоритме Уинстона [Winston, 1975a] пороги включают представление в виде конъюнктивных связей и использование "попаданий близ цели" для коррекции наложенных на систему ограничений. Подобные пороги используются при реализации поиска в пространстве версий (раздел 9.1), построении деревьев решений в алгоритме ID3 (раздел 9.3) или даже правилах Meta-DENDRAL (раздел 9.5).
Как упоминалось в главах 10 и 11, многие аспекты стратегий коннекционистского и генетического обучения также предполагают наличие индуктивных порогов. Например, ограничения персептронных сетей привели к появлению скрытых слоев. Уместен вопрос о том, какой вклад вносят скрытые узлы в получение решения. Одна из функций скрытых узлов состоит в том, что они добавляют новые измерения в пространство представлений. На простом примере из подраздела 10.3.3 было видно, что данные в задаче "исключающего ИЛИ" не были линейно разделимы в двухмерном пространстве. Однако получаемые в процессе обучения весовые коэффициенты добавляют к представлению еще одно измерение. В трехмерном пространстве точки можно разделить двухмерной плоскостью. Выходной слой этой сети можно рассматривать как персептрон, находящий плоскость в трехмерном пространстве.
Глава 16. Искусственный интеллект как эмпирическая проблема 797
Стоит отметить, что многие из "различных" парадигм обучения используют (иногда неявно) общие индуктивные пороги. Примером подобной ситуации является взаимосвязь между кластеризацией в системе CLUSTER/2 (раздел 9.5), персептроном (раздел 10.2) и сетями прототипов (раздел 10.3). Было отмечено, что встречное распространение информации в дуальной сети, использующей обучение без учителя с коррекцией весов по выходу в слое Кохонена наряду с обучением с учителем в слое Гроссберга, во многом подобно обучению с обратным распространением ошибки.
Рассмотренные средства схожи во многих важных аспектах. Фактически даже задача кластеризации данных является дополнением к методу аппроксимации функций. В первом случае мы пытаемся классифицировать наборы данных; во втором строим функции, которые однозначно отделяют кластеры данных друг от друга. Это можно наблюдать, когда используемый персептроном алгоритм классификации на основе минимального расстояния находит также параметры, задающие линейное разделение.
Даже задачи обобщения или построения функций можно рассматривать с различных позиций. Например, статистические методы используются для обнаружения корреляции данных. Итеративный вариант рядов Тейлора позволяет аппроксимировать большинство функций. Алгоритмы полиномиальной аппроксимации на протяжении более столетия используются для аппроксимации функций по заданным точкам.
Итак, результат обучения (символьного, коннекционистского или эволюционного) во многом определяется принятыми предположениями о характере решения. Принимая в расчет этот синергетический эффект в процессе разработки вычислительных решателей задач, зачастую можно улучшить шансы на успех и более осмысленно интерпретировать результаты.
Дилемма эмпирика
Если в сегодняшних подходах к машинному обучению, особенно обучению с учителем, главную роль играет индуктивный порог, то обучение без учителя, которое используется во многих генетических и эволюционных подходах, сталкивается с противоположной проблемой, которую иногда называют дилеммой эмпирика. В таких подходах считается, что решения сложатся сами на основе эволюционирующих альтернатив, в процессе "выживания" наиболее подходящих особей популяции. Это мощный метод, особенно в контексте параллельных и распределенных средств поиска. Но возникает вопрос: откуда можно узнать, что система пришла к правильному решению, если мы не знали, куда идем?
Давным-давно Платон сформулировал эту проблему словами Менона из знаменитого диалога:
"Но каким же образом, Сократ, ты будешь искать вещь, не зная даже, что она такое? Какую из неизвестных тебе вещей изберешь ты предметом исследования? Или, если в лучшем случае ты даже натолкнешься на нее, откуда ты узнаешь, что она именно то, чего ты не знал?"
Несколько исследователей подтверждают слова Менона [Mitchell, 1997] и теорему "о бесплатном сыре" Вольперта и Макреди [Wolpert, Macready, 1995]. Эмпирик фактически нуждается в какой-то доле рационалистского априорного знания для придания научности своим рассуждениям.
Тем не менее продолжается множество увлекательных разработок в обучении без учителя и эволюционном обучении. Примером служит создание сетей, основанных на моделях или минимизации энергии, которые можно рассматривать в качестве аттракторов для сложных инвариантностей. Наблюдая, как данные "выстраиваются" к точкам притяжения, исследователь начинает рассматривать эти архитектуры как средства моделирования динамических явлений. Возникает вопрос: каковы ограничения этих методов?
798 Часть VII. Эпилог
Фактически исследователи показали [Siegelman и Sontag, 1991], что рекуррентные сети полны в смысле вычислений, т.е. эквивалентны классу машин Тьюринга. Эта эквивалентность обобщает более ранние результаты. Колмогоров [Kolmogorov, 1957] показал, что для каждой непрерывной функции существует нейронная сеть, реализующая ее вычисление. Также было показано, что сеть обратного распространения ошибки с одним скрытым слоем может аппроксимировать любую непрерывную на компакте функцию [Necht-Nielsen, 1989]. В разделе 11.3 было указано, что фон Нейман построил полные, по Тьюрингу, конечные автоматы. Таким образом, сети связей и конечные автоматы оказались еще двумя классами алгоритмов, способных аппроксимировать практически любую функцию. Кроме того, индуктивные пороги применимы к обучению без учителя, а также к эволюционным моделям; пороги представлений применимы к построению узлов, сетей и геномов, а алгоритмические пороги - к механизмам поиска, подкрепления и селекции.
Что в таком случае могут нам предложить коннекционистские, генетические или эволюционные конечные автоматы в их разнообразных формах? .
Одна из наиболее привлекательных черт нейросетевого обучения - это возмож
ность адаптации на основе входных данных или примеров. Таким образом, хотя их
архитектуры точно проектируются, они обучаются на примерах, обобщая данные в
конкретной предметной области. Но возникает вопрос о том, хватает ли данных и
достаточно они ли "чисты", чтобы не исказить результат решения. И может ли это
знать конструктор?
Генетические алгоритмы также обеспечивают мощный и гибкий механизм поиска
в пространстве параметров задачи. Генетический поиск управляется как мутация
ми, так и специальными операторами (например, скрещивания или инверсии), ко
торые сохраняют важные аспекты родительской информации для последующих
поколений. Каким образом проектировщик программы может найти и сохранить в
нужной мере компромисс между разнообразием и постоянством?
Генетические алгоритмы и коннекционистские архитектуры можно рассматривать
как примеры параллельной и асинхронной обработки. Но действительно ли они
обеспечивают результаты, недостижимые в последовательном программировании?
Хотя нейросетевые и социологические корни не имеют принципиального значе
ния для многих современных практиков коннекционистского и генетического
обучения, эти методы отражают многие важные стороны естественного отбора и
эволюции. В главе 10 были рассмотрены модели обучения с уменьшением
ошибки- персептронные сети, сети с обратным распространением ошибки и
модели Хебба. В подразделе 10.3.4 описаны сети Хопфилда, предназначенные
для решения задач ассоциативной памяти. Разнообразные эволюционные модели
рассматривались в главе 11.
И, наконец, все методики обучения являются эмпирическими средствами. Доста
точно ли мощны и выразительны эти средства, чтобы по мере выявления инвари-
антностей нашего мира ставить дальнейшие вопросы о природе восприятия, обу
чения и понимания?
В следующем разделе будет обоснован вывод о том, что конструктивистская эпистемология, объединенная с экспериментальными методами современного искусственного интеллекта, предлагает средства и технологии для дальнейшего построения и исследования теории интеллектуальных систем.
Глава 16. Искусственный интеллект как эмпирическая проблема 799
Примирение с конструктивистами
Теории, как сети: кто их закидывает, у того и улов... - Л. Виттгенштейн (L. Wittgenstein)
Конструктивисты выдвигают гипотезу о том, что всякое понимание является результатом взаимодействия между энергетическими образами мира и ментальными категориями, наложенными на мир разумным агентом [Piaget, 1954, 1970], [von Glasesfeld, 1978]. В терминах Пиагета (Piaget), мы ассимилируем (assimilate) явления внешней среды в соответствии с нашим текущим пониманием и приспосабливаем (accommodate) наше понимание к "требованиям" явления.
Конструктивисты часто используют термин схемы (schemata) для обозначения априорных структур, используемых в организации опытного знания о внешнем мире. Этот термин заимствован у британского психолога Бартлетта [Bartlett, 1932] и корнями уходит в философию Канта. С этой точки зрения наблюдение не пассивно и нейтрально, а является активным и интерпретирующим.
Воспринятая информация (кантовское апостериорное знание) никогда не вписывается точно в заранее составленные схемы. Поэтому пороги, основанные на схемах и используемые субъектом для организации опытных знаний, должны быть модифицированы, расширены или же заменены. Необходимость приспособления, вызванная неудачными взаимодействиями с окружающей средой, служит двигателем процесса когнитивного уравновешивания. Таким образом, конструктивистская эпистемология является основой когнитивной эволюции и уточнения. Важным следствием теории конструктивизма является то, что интерпретация любой ситуации подразумевает применение понятий и категорий наблюдателя.
Когда Пиагет [Piaget, 1954, 1970] предложил конструктивистский подход к пониманию, он назвал его генетической эпистемологией (genetic epistemology). Несоответствие между схемой и реальным миром создает когнитивное противоречие, которое вынуждает пересматривать схему. Исправление схемы, приспособление приводит к непрерывному развитию понимания в сторону равновесия (equilibration).
Пересмотр схемы и движение к равновесию - это врожденная предрасположенность, а также средство приспособления к устройству общества и окружающего мира. В пересмотре схем объединяются обе эти силы, отражающие присущую нам склонность к выживанию. Модификация схем априори запрограммирована нашей генетикой и в то же время является апостериорной функцией общества и мира. Это результат нашего воплощения в пространстве и времени.
Здесь наблюдается слияние эмпирической и рационалистической традиций. Как материализованный объект человек может воспринимать не больше, чем воспринимают его органы чувств. Благодаря приспособлению он выживает, изучая общие принципы внешнего мира. Восприятие определяется нашими ожиданиями, которые, в свою очередь, формируются восприятием. Следовательно, эти функции могут быть поняты лишь в терминах друг друга.
Наконец, человек редко осознает схемы, обеспечивающие его взаимодействие с миром. Он является источником предвзятости и предубеждений в науке и в обществе. Но чаще всего человек не знает их смысла. Они формируются за счет достижения когнитивного равновесия с миром, а не в процессе сознательного мышления.
Почему конструктивистская эпистемология особенно полезна при изучении проблем искусственного интеллекта? Автор считает, что конструктивизм помогает в
800 Часть VII. Эпилог
рассмотрении проблемы эпистемологического доступа (epistemological access). Более столетия в психологии идет борьба между двумя направлениями: позитивистами, которые предлагают исследовать феномен разума, отталкиваясь от обозримого физического поведения, и сторонниками более феноменологического подхода, который позволяет использовать описания от первых лиц. Это разногласие существует, поскольку оба подхода требуют некоторых предположений или толкований. По сравнению с физическими объектами, которые считаются непосредственно наблюдаемыми, умственные состояния и поведение субъекта четко охарактеризовать крайне сложно. Автор полагает, что противоречие между прямым подходом к физическим явлениям и непрямым к ментальным является иллюзорным. Конструктивистский анализ показывает, что никакое опытное знание о предмете не возможно без применения некоторых схем для организации этого опыта. В научных исследованиях это подразумевает, что всякий доступ к явлениям мира происходит посредством построения моделей, приближений и уточнений.
16.2.3. Внедренный исполнитель и экзистенциальный разум
Символьные рассуждения, нейросетевые вычисления и разнообразные формы эволюционных стратегий являются главенствующими подходами в современном изучении ИИ. Тем не менее, как было отмечено в предыдущем разделе, для обеспечения более высокой эффективности эти подходы должны принимать в расчет ограничения мира, согласно которым весь "интеллект" является овеществленным.
Теории внедренного и овеществленного действия утверждают, что интеллект не является результатом управления моделями, построенными разумом. Его лучше всего рассматривать в терминах действий, предпринимаемых помещенным в мир агентом. В качестве метафоры для лучшего понимания разницы между двумя подходами в работе [Suchman, 1987] предлагается сравнение между европейскими методами навигации и менее формальными методами, практикуемыми полинезийскими островитянами. Европейские навигационные методы требуют постоянного отслеживания местонахождения корабля в каждый момент путешествия. Для этого штурманы полагаются на обширные, детальные географические модели. Полинезийские навигаторы, напротив, не пользуются картами и другими средствами определения своего местонахождения. Они используют звезды, ветры и течения, чтобы продолжать движение к своей цели, импровизируя маршрут, который непосредственно зависит от обстоятельств их путешествия. Не полагаясь на модели мира, островитяне рассчитывают на свое взаимодействие с ним и достигают своей цели с помощью надежного и гибкого метода.
Теории внедренного действия утверждают, что интеллект не нужно рассматривать как процесс построения и использования моделей мира. Это, скорее, менее структурированный процесс выполнения действий в этом мире и реагирования на результат. Этот подход акцентирует внимание на способности чувственного восприятия окружающего мира, целенаправленных действиях, а также непрерывной и быстрой реакции на изменения, происходящие в нем. В этом подходе чувства, посредством которых человек внедряется в этот мир, имеют большее значение, нежели процессы рассуждения о них. Важнее способность действовать, а не способность объяснять эти действия.
Влияние такой точки зрения на сети связей и агентские подходы очевидно. Оно состоит в отказе от общих символьных методов в пользу процессов адаптации и обучения.
Глава 16. Искусственный интеллект как эмпирическая проблема 801
Работы в области искусственной жизни [Langton, 1995], должно быть, самый яркий пример исследований, выполненных под влиянием теорий внедренного действия. Эти модели разума повлияли на подход к робототехнике Родни Брукса [Brooks, 1989], Брендана Мак-Гонигла [McGonigle, 1998], Льюиса и Люгера [Lewis и Luger, 2000]. Эти исследователи утверждают, что было ошибкой начинать работы в сфере ИИ с реализации высокоуровневых процессов рассуждений в моделируемом разуме. Этот акцент на логических рассуждениях повел человечество неверной дорогой, отвлек внимание от фундаментальных процессов, которые позволяют агенту внедряться в мир и действовать в нем продуктивным образом. По мнению Брукса, нужно начинать с проектирования и исследования небольших простых роботов, созданий, действующих на уровне насекомых. Они позволят изучить процессы, лежащие в основе поведения как простых, так и сложных существ. Построив множество таких простых роботов, Брукс и его коллеги пытаются применить приобретенный опыт в конструировании более сложного робота COG, который, как надеются разработчики, достигнет способностей человека.
Несмотря на это, теория внедренного действия также повлияла на символьные подходы к ИИ. Например, работы в области реактивного планирования [Benson, 1995], [Benson и Nilsson, 1995], [Klein и др., 2000] отвергают традиционные методы планирования, предполагающие разработку полного и определенного плана, который проведет агента по всему пути, от стартовой точки и до желаемой цели. Такие планы редко срабатывают нужным образом, потому что на пути может возникнуть слишком много ошибок и непредвиденных проблем. Напротив, системы реактивного планирования работают циклами. За построением частичного плана следует его выполнение, а затем ситуации переоценивается для построения нового плана.
Конструктивистские теории и теории внедренного действия подтверждают многие идеи философии экзистенциализма. Экзистенциалисты считают, что человек проявляет себя посредством своих действий в окружающем мире. То, во что люди верят (или утверждают, что верят), куда менее важно, чем то, что они совершают в критических ситуациях. Этот акцент весьма важен в ИИ. Исследователи постепенно поняли, что интеллектуальные программы необходимо помещать прямо в предметную область, а не лелеять в лаборатории. В этом причина роста интереса к робототехнике и проблеме восприятия, а также к сети Internet. В последнее время ведутся активные работы по созданию Web-агентов, или "софтботов", - программ, которые выходят в сеть и совершают полезные интеллектуальные действия. Сеть привлекательна для разработчиков ИИ прежде всего тем, что она может предложить интеллектуальным программам мир, куда более сложный, чем построенный в лаборатории. Этот мир, сравнимый по сложности с природой и обществом, могут населять интеллектуальные агенты, не имеющие тел, но способные чувствовать и действовать, как в физическом мире.
По мнению автора, теории внедренного действия будут оказывать все возрастающее влияние на искусственный интеллект, заставляя исследователей уделять больше внимания таким вопросам, как важность овеществления и обоснования для интеллектуального агента. Важно также учитывать влияние социального, культурного и экономического факторов на обучение и на способ влияния мира на рост и эволюцию внедренного агента. [Clark, 1997], [Lakoff и Johnson, 1999].
В заключение сформулируем основные вопросы, которые как способствуют, так и препятствуют сегодняшним усилиям специалистов в построении теории интеллектуальных систем.
802 Часть VII. Эпилог
16.3. Искусственный интеллект: текущие задачи и будущие направления
Как геометр, напрягший все старанья,
Чтобы измерить круг, схватить умом
Искомого не может основанья,
Таков был я при новом диве том...
- Данте (Dante), Рай
Хотя использование методик ИИ для решения практических задач продемонстрировало его полезность, проблема их применения для построения полной теории интеллекта сложна, и работа над ней продолжается. В этом заключительном разделе мы вернемся к вопросам, которые привели автора к изучению проблем искусственного интеллекта и написанию этой книги: возможно ли дать формальное математическое описание процессов, формирующих интеллект?
Вычислительное описание интеллекта возникло с появлением абстрактных определений вычислительных устройств. В 1930-1950-х гг. эту проблему начали исследовать Тьюринг, Пост, Марков и Черч - все они работали над формальными системами для описания вычислений. Целью этого исследования было не просто определить, что подразумевать под вычислениями, но и установить рамки их применимости. Наиболее изученным формальным описанием является универсальная машина Тьюринга [Turing, 1950], хотя правила вывода Поста, лежащие в основе продукционных систем, тоже вносят важный вклад в развитие этой области знаний. Модель Черча [Church, 1941], основанная на частично рекурсивных функциях, привела к созданию современных высокоуровневых функциональных языков, таких как Scheme и Standard ML.
Теоретики доказали, что все эти формализмы эквивалентны по своей мощности: любая функция, вычисляемая при одном подходе, вычисляется и при остальных. На самом деле можно показать, что универсальная машина Тьюринга эквивалента любому современному вычислительному устройству. Исходя из этих фактов, был выдвинут тезис Чер-ча-Тьюринга о том, что невозможно создать модель вычислительного устройства, более мощного, чем уже известные модели. Установив эквивалентность вычислительных моделей, мы обретаем свободу в выборе средств их технической реализации: можно строить машины на основе электронных ламп, кремния, протоплазмы или консервных банок. Автоматизированное проектирование в одной реализации можно рассматривать как эквивалент других механизмов. Это делает еще более важным эмпирический метод, поскольку исследователь может экспериментировать над системой, реализованной одними средствами, чтобы понять систему, реализованную иными.
Хотя, возможно, универсальная машина Тьюринга и Поста чересчур универсальна. Парадокс состоит в том, что для реализации интеллекта может потребоваться менее мощный вычислительный механизм с большим упором на управление. В работе [Levesque и Brachman, 1985] высказано предположение, что для реализации человеческого интеллекта могут потребоваться вычислительно более эффективные (хотя и менее впечатляющие) представления, в том числе основанные на использовании хорнов-ских дизъюнктов для представления рассуждений и сужении фактического знания до основных литералов. Агентские и эволюционные модели интеллекта также разделяют подобную идеологию.
Глава 16. Искусственный интеллект как эмпирическая проблема 803
Еще один аспект, связанный с формальной эквивалентностью вычислительных моделей, - это вопрос дуализма, или проблема взаимоотношения мозга и тела. По крайней мере со времен Декарта (см. раздел 1.1) философы задавались вопросом взаимодействия и интеграции мозга, сознания и физического тела. Философы предлагали всевозможные объяснения, от полного материализма до отрицания материального существования, вплоть до вмешательства бога. ИИ и когнитологические исследования отвергают картезианский дуализм в пользу материальной модели разума, основанной на физической реализации, или конкретизации символов, формальном описании вычислительных операций над этими символами, эквивалентности представлений и "реализации" знаний и опыта в овеществленных моделях. Успех таких исследований свидетельствует о справедливости выбранной модели [Johnson-Laird, 1998], [Dennett, 1987], [Luger, 1994].
Тем не менее возникает множество вопросов, связанных с эпистемологическими принципами организации интеллекта как физической системы. Отметим некоторые важные проблемы.
1. Проблема представления. Ньюэлл и Саймон выдвинули гипотезу о том, что фи
зическая символьная система и поиск являются необходимой и достаточной харак
теристикой интеллекта (см. раздел 16.1). Опровергают ли успехи нейронных сетей,
генетических и эволюционных подходов к интеллекту гипотезу о физической сим
вольной системе, или же они сами являются символьными системами?
Вывод о том, что физическая символьная система представляет собой достаточную модель интеллекта, привел ко многим впечатляющим и полезным результатам в современной науке о мышлении. Исследования показали, что можно реализовать физическую символьную систему, которая будет проявлять разумное поведение. Достаточность гипотезы позволяет строить и тестировать символьные модели многих аспектов поведения человека ([Pylyshyn, 1984], [Posner, 1989]). Но теория о том, что физическая символьная система и поиск необходимы для разумного поведения, остается под вопросом [Searle, 1980], [Weizenbaum, 1976], [Winograd и Flores, 1986], [Dreyfus и Dreyfus, 1985], [Penrose, 1989].
Роль овеществления в познании. Одним из главных предположений гипотезы о
физической символьной системе является то, что физическая реализация символь
ной системы не влияет на ее функционирование. Значение имеет лишь формальная
структура. Это ставится под сомнение многими исследователями [Searle, 1980],
[Johnson, 1987], [Agre и Chapman, 1987], [Brooks, 1989], [Varela и др., 1993], кото
рые утверждают, что разумные действия в мире требуют физического воплощения,
которое позволяет агенту объединяться с миром. Архитектура сегодняшних ком
пьютеров не допускает такой степени внедрения, ограничивая взаимодействие ис
кусственного интеллекта с миром современными устройствами ввода-вывода. Если
эти сомнения верны, то реализация машинного разума требует интерфейса, весьма
отличного от предлагаемого современными компьютерами.
Культура и интеллект. Традиционно упор в ИИ делался на разум отдельного ин
дивида как источник интеллекта. Предполагается, что изучение принципов работы
мозга (способов кодирования и манипулирования знаниями) обеспечит полное по
нимание истоков интеллекта. Но можно утверждать, что знание лучше рассматри
вать в контексте общества, чем как отдельную структуру.
В теории интеллекта, описанной в [Edelman, 1992], общество само является носителем важных составляющих интеллекта. Возможно, понимание социального кон-
804 Часть VII. Эпилог
текста знания и человеческого поведения не менее важно для теории интеллекта, чем понимание процессов отдельного разума (мозга).
4. Природа интерпретации. Большинство вычислительных моделей работают с за
ранее интерпретированной предметной областью, т.е. существует неявная априор
ная привязка разработчиков к контексту интерпретации. Из-за этой привязки сис
тема ограничена в изменении целей, контекстов, представлений по мере решения
задачи. Кроме того, сегодня делается слишком мало попыток осветить процесс по
строения интерпретации человеком.
Позиция Тарскиана (Tarskian), который рассматривает семантическое приспособление как отображение множества символов на множество объектов, безусловно, слишком слаба и не объясняет, например, тот факт, что одна предметная область может иметь разные интерпретации в свете различных практических целей. Лингвисты пытаются устранить ограничения такой семантики, добавляя к ней теорию прагматики [Austin, 1962] (раздел 13.1). К этим вопросам в последнее время часто обращаются исследователи в области анализа связной речи, поскольку здесь важную роль играет применение символов в контексте. Однако проблема гораздо шире - она сводится к изучению преимуществ и недостатков ссылочных средств в целом [Lave, 1988], [Grosz и Sidner, 1990].
В традиции семиотики, основанной Пирсом [Peirse, 1958] и продолженной в работах [Есо, 1976], [Grice, 1975], [Seboek, 1985], принимается более радикальный подход к языку. Здесь символьные выражения рассматриваются в более широком контексте знаков и знаковых интерпретаций. Это предполагает, что значение символа может быть понято лишь в контексте его интерпретации и взаимодействия с окружающей средой.
5. Неопределенность представлений. Гипотеза Андерсона о неопределенности
представлений [Anderson, 1978] гласит: принципиально невозможно определить,
какая схема представления наилучшим образом аппроксимирует решение задачи
человеком в контексте его опыта и навыков. Эта гипотеза основывается на том
факте, что всякая схема представления неразрывно связана с большей вычисли
тельной архитектурой и со стратегиями поиска. Детальный анализ человеческого
опыта показывает, что иногда невозможно управлять процессом решения в степе
ни, достаточной для определения представления, или же установить представле
ние, которое бы однозначно определяло процесс. Как и принцип неопределенности
в физике, где процесс измерения влияет на исследуемое явление, это соображение
важно при проектировании моделей интеллекта, но оно, как будет показано ниже,
не ограничивает их применимости.
Такие же замечания могут быть адресованы к самой вычислительной модели, где индуктивные пороги символов и поиска в контексте гипотезы Черча-Тьюринга все же накладывают ограничения на систему. Мысль о необходимости построения некой оптимальной схемы представления вполне может оказаться осколком мечты рационалиста, в то время как ученому нужна лишь модель, достаточно качественная для рассмотрения эмпирических вопросов. Доказательством качества модели является ее способность интерпретировать, предсказывать и адаптироваться.
6. Необходимость построения ошибочных вычислительных моделей. Поппер
[Popper, 1959] и другие утверждают, что научные теории должны ошибаться. Сле
довательно, должны существовать обстоятельства, при которых модель не может
Глава 16. Искусственный интеллект как эмпирическая проблема 805
успешно аппроксимировать явление. Это связано с тем, что для подтверждения правильности модели не достаточно никакого конечного числа подтверждающих экспериментов. Ошибки в существующих теориях стимулируют дальнейшие исследования.
Крайняя общность гипотезы о физической символьной системе, а также агентских и эволюционных моделей интеллекта может привести к тому, что их будет невозможно заставить ошибаться. Следовательно, их применимость в качестве моделей будет ограниченной. Те же замечания можно сделать по поводу предположений феноменологической традиции (п. 7). Некоторые структуры данных ИИ, такие как семантические сети, тоже настолько общи, что ими можно смоделировать практически все, что поддается описанию, или, как в универсальной машине Тьюринга, любую вычислимую функцию. Таким образом, если исследователю ИИ или когни-тологу задать вопрос о том, при каких условиях его модель интеллекта не будет работать, он затруднится ответить.
7. Ограничения научного метода. Некоторые исследователи [Winograd и Flo-res, 1986], [Weizenbaum, 1976] утверждают, что наиболее важные аспекты интеллекта в принципе невозможно смоделировать, а в особенности с помощью символьного представления. Эти аспекты включают обучение, понимание естественного языка и речь. Эти вопросы корнями уходят глубоко в феноменологическую традицию. Например, замечания Винограда (Winograd) и Флореза (Flores) основываются на проблемах, поднятых в феноменологии [Husserl, 1970], [Heidegger, 1962].
Многие положения современной теории ИИ берут начало в работах Карнапа (Сагпар), Фреге (Frege), Лейбница (Leibniz), а также Гоббса (Hobbes), Локка (Locke), Гумма (Hume) и Аристотеля. В этой традиции утверждается, что интеллектуальные процессы отвечают законам природы и в принципе постижимы.
Хайдеггер (Heidegger) и его последователи представили альтернативный подход к пониманию интеллекта. Для Хайдеггера рефлексивная осведомленность свойственна миру овеществленного опыта. Приверженцы этой точки зрения, включая Винограда, Флореса и Дрейфуса (Dreyfus), говорят, что понимание личностью каких-либо аспектов основывается на их практическом "использовании" в повседневной жизни. По существу, мир представляет собой контекст социально организованных ролей и целей. Эта среда и функционирование человека в ней не объясняются соотношениями и теоремами. Это поток, который сам себя формирует и непрерывно модифицирует. В фундаментальном смысле в мире эволюционирующих норм и неявных целей человеческий опыт - это знание не объекта, а, скорее, способа действия. Человек по своей сути не способен выразить большую часть своего знания и разумного поведения в форме языка, будь то формального или естественного.
Рассмотрим эту точку зрения. Во-первых, как критика чисто рационалистской традиции, она верна. Рационализм отстаивает позицию, что всякая человеческая деятельность, интеллект и ответственность в принципе могут быть представлены, формализованы и поняты. Большинство вдумчивых людей ставят это под сомнение, отводя важную роль эмоциям, самоутверждению и обязательствам долга (наконец-то!). Сам Аристотель говорил: "Почему я не чувствую побуждения делать то, что требует ответственность?". Существует множество разновидностей человеческой деятельности, выходящих за пределы досягаемости научного метода, кото-
806 Часть VII. Эпилог
рые играют важную роль в сознательном взаимодействии людей. Их невозможно воспроизвести в машинах.
И все же научная традиция, состоящая в изучении данных, построении моделей, постановке экспериментов и проверке результатов с уточнением модели дальнейших экспериментов, дала человечеству высокий уровень понимания, объяснения и способности предсказывать. Научный метод - мощный инструмент для улучшения понимания человека. Тем не менее в этом подходе остается множество подводных камней.
Во-первых, ученые не должны путать модель с моделируемым явлением. Модель позволяет постепенно аппроксимировать феномен, но всегда имеется "остаток", который нельзя объяснить эмпирически. В этом смысле неоднозначность представления не является проблемой. Модель используется для исследования, объяснения и предсказания, и если она выполняет эти функции, то это - удачная модель [Kuhn, 1962]. В самом деле разные модели могут успешно пояснять разные аспекты одного явления, например, волновая и корпускулярная теории света.
Более того, когда исследователи утверждают, что некоторые аспекты интеллекта находятся за рамками методов научной традиции, само это утверждение можно проверить лишь с помощью этой традиции. Научный метод - единственный инструмент, с помощью которого можно объяснить, в каком смысле вопросы могут быть за пределами текущего понимания человека. Всякая логически последовательная точка зрения, даже точка зрения феноменологической традиции, должна соотноситься с текущими представлениями об объяснении, даже если она всего лишь устанавливает границы, в которых феномен может быть объяснен.
Эти вопросы необходимо рассматривать для сохранения логической связности и развития ИИ. Для того чтобы понять процесс решения задач, обучение и язык, необходимо осмыслить представления и знания на уровне философии. Исследователям предстоит решать аристотелевское противоречие между теорией и практикой, жить между наукой и искусством.
Ученые создают инструменты. Все наши представления, алгоритмы и языки - это инструменты для проектирования и построения механизмов, проявляющих разумное поведение. Посредством эксперимента можно исследовать как их вычислительную адекватность для решения задач, так и наше собственное понимание явления интеллекта.
Мы наследники традиции Гоббса, Лейбница, Декарта, Бэббиджа, Тьюринга и других, о чьем вкладе в науку было рассказано в главе 1. Инженерия, наука и философия; природа идей, знаний и опыта; могущество и пределы формализма и механизма - это ограничения, с которыми необходимо считаться и с учетом которых нужно продолжать исследования.
16.4. Резюме и дополнительная литература
Для получения дополнительной информации читатель может воспользоваться ссылками, приведенными в конце главы 1. К ним стоит добавить работы [Pylyshyn, 1984] и [Winograd и Flores, 1986]. Вопросы когнитологии рассматриваются в [Norman, 1983], [Newell и Simon, 1972], [Posner, 1989], [Luger, 1994], [Ballard, 1997], [Franklin, 1995], [Jeannerod, 1997], [Нтапидр., 1996].
В работах [Haugeland, 1981, 1997], [Dennett, 1978], [Smith, 1996] описаны философские корни теории интеллектуальных систем. Книга [Anderson, 1990] по когнитивной
Глава 16. Искусственный интеллект как эмпирическая проблема 807
психологии дает ценные примеры моделей обработки информации. В работах [Pylyshin, 1984], [Anderson, 1978] приводится детальное описание многих принципиальных вопросов когнитологии, включая рассмотрение неопределенности представлений. В [Dennett, 1991] методы когнитологии применяются для исследовании структуры сознания. Также можно порекомендовать книги по научному методу: [Popper, 1959], [Kuhn, 1962], [Bechtel, 1988], [Hempel, 1965], [Lakatos, 1976], [Quine, 1963].
Наконец, в [Lakoff и Johnson, 1999] предложены возможные ответы на вопрос обоснования. В книге [Clark, 1997] описаны важные аспекты овеществленности интеллекта. Описание модели Брукса [Brooks, 1991a] для решения задачи внедренного робота можно найти в работах [McGonigle, 1990, 1998] и [Lewis и Luger, 2000].
Предлагаем читателям адреса двух известных научных групп.
The American Association for Artificial Intelligence 445 Burgess Drive Menlo Park, CA 94025
Computer Professionals for Social Responsibility
P.O. Box 717
Palo Alto, СА 94301
808 Часть VII. Эпилог
Библиография
Abelson H., Sussman G. J. Structure and Interpretation of Computer Programs. Cambridge, MA: MIT Press, 1985.
Ackley D. H., Hinton G. E. and Sejnowski T. J. A learning algorithm for Boltzmann machines. Cognitive Science 9, 1985.
Ackley D. H., Littman M. Interactions between learning and evolution. In Langton et al. (1992), 1992.
Adler M. R., Davis А. В., Weihmayer R. and Worrest R. W. Conflict resolution strategies for
nonhierarchical distributed agents. Distributed Artificial Intelligence, Vol. 112. San
Francisco: Morgan Kaufmann, 1989. Agre P. and Chapman D. Pengi: an implementation of a theory of activity. Proceedings of the
Sixth National Conference on Artificial Intelligence, pp. 268-272. CA: Morgan
Kaufmann, 1987.
Aho A. V. and Ullman J. D. Principles of Compiler Design. Reading, MA: Addison-Wesley, 1977. Allen J. Natural Language Understanding. Menlo Park, CA: Benjamin/Cummings, 1987. Allen J. Natural Language Understanding, 2nd ed. Menlo Park, CA: Benjamin/Cummings, 1995. Allen J., Hendler J. and Tate A. Readings in Planning. Los Altos, CA: Morgan Kaufmann, 1990.
Alty J. L. and Coombs M. J. Expert Systems: Concepts and Examples. Manchester: NCC Publications, 1984.
Anderson J. A., Silverstein J. W., Ritz, S. A. and Jones R. S. Distinctive features, categorical perception and probability learning: Some applications of a neural model. Psychological Review, 84: 413-451, 1977.
Anderson J. R. Arguments concerning representations for mental imagery. Psychological Review, 85: 249-277, 1978.
Anderson J. R. Acquisition of cognitive skill. Psychological Review, 89: 369-406, 1982. Anderson J. R. Acquisition of proof skills in geometry. In Michalski et al. (1983a), 1983a. Anderson J. R. The Architecture of Cognition. Cambridge, MA: Harvard University Press, 19836. Anderson J. R. Cognitive Psychology and its Implications. New York; W. H. Freeman, 1990. Anderson J. R. and Bower G. H. Human Associative Memory. Hillsdale, NJ: Erlbaum, 1973.
Andrews P. An Introduction to Mathematical Logic and Type Theory: To Truth Through Proof. New York: Academic Press, 1986.
Smalltalk/V: Tutorial and Programming Handbook. Los Angeles: Digitalk, 1986.
Appelt D. Planning English Sentences. London: Cambridge University Press, 1985.
Arbib M. Simple self-reproducing universal automata. Information and Control 9:177-189,1966.
Aspray W. and Burks A. W., ed. Papers of John Von Neumann on Computing and Computer Theory. Cambridge, MA: MIT Press, 1987.
Auer P., Holte R. С and Maass W. Theory and application of agnostic рас-learning with small decision trees. Proceedings of the Twelfth International Conference on Machine Learning, pp. 21-29. San Francisco: Morgan Kaufmann, 1995.
Austin J. L. How to Do Things with Words. Cambridge, MA: Harvard University Press, 1962.
Bach E. and Harms R., ed. Universals of Linguistic Theory. New York: Holt, Rinehart and Winston, 1968.
Bachant J. and McDermott J. Rl revisited: Four years in the trenches. Al Magazine 5(3), 1984.
Backus J. Can programming be liberated from the Von Neumann style? A functional style and its algebra of programs, Communications of the ACM, 21(8): 613-641, 1978.
Ballard D. An introduction to Natural Computation. Cambridge, MA: MIT Press, 1997.
Balzer R., Erman L. D., London P. E. and Williams С HEARSAY 111: A domain independent framework for expert systems. Proceedings AAAI, 1980.
Bareiss E. R., Porter, B. W. and Weir С. С. Protos: An exemplar-based learning apprentice. International Journal of Man-Machine Studies, 29: 549-561, 1988.
Barker V. E. and O'Connor D. E. Expert Systems for configuration at DIGITAL: XCON and Beyond. Communications of the ACM, 32(3): 298-318, 1989.
Barkow J. H., Cosmides L. and Tooby J. The Adapted Mind. New York: Oxford Univ. Press, 1992.
Barr A. and Feigenbaum E., ed. Handbook of Artificial Intelligence. Los Altos, CA: William Kaufman, 1989.
Bartlett F. Remembering. London: Cambridge University Press, 1932. Bateson G. Mind and Nature: A Necessary Unity. New York: Dutton, 1979. Bechtel W. Philosophy of Mind. Hillsdale, NJ: Lawrence Erlbaum, 1988. Bellman R. E. Dynamic Programming. Princeton, NJ: Princeton University Press, 1956. Benson S. Action Model Learning and Action Execution in a Reactive Agent. Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI-95), 1995.
Benson S. and Nilsson N. Reacting, Planning and Learning in an Autonomous Agent. Machine Intelligence 14. Edited by K. Furukawa, D. Michie and S. Muggleton. Oxford: Clarendon Press, 1995.
Berger A., Brown P., Delia Pietra S., Delia Pietra V., Gillett J., Lafferty J., Mercer R., Printz H. and Ures L. The Candide System for Machine Translation. Human Language Technology: Proceedings of the ARPA Workshop on Speech and Natural language. San Mateo, CA: Morgan Kaufmann, 1994.
Bernard D. E., Dorais G. A., Fry C, Gamble E. В., Kanefsky В., Kurien J., Millar W., Muscettola N., Nayak P. P., Pell В., Rajan K., Rouquette N., Smith B. and Williams В. С Design of the remote agent experiment for spacecraft autonomy. Proceedings of the IEEE Aerospace Conference, 1998.
Bertsekas D. P. and Tsitsiklis J. N. Neuro-Dynamic Programming. Belmont, MA: Athena, 1996. Bhaskar R. and Simon H. A. Problem solving in semantically rich domains. Cog. Sci. 1, 1977. Bishop С. Н. Neural Networks for Pattern Recognition. Oxford: Oxford University Press, 1995.
810 Библиография
Bledsoe W. W. Splitting and reduction heuristics in automatic theorem proving. Artificial Intelligence, 2: 55-77, 1971.
Bledsoe W. W. Non-resolution theorem proving. Artificial Intelligence, 9, 1977.
Bobrow D. G. Dimensions of representation. In Bobrow and Collins (1975), 1975.
Bobrow D. G. and Collins A., ed. Representation and Understanding. NY: Academic Press, 1975.
Bobrow D. G. and Winograd T. An overview of K.RL, a knowledge representation language. Cognitive Science 1(1), 1977.
Bond A. H. and Gasser L., ed. Readings in Distributed Artificial Intelligence. San Francisco: Morgan Kaufmann, 1988.
Boole G. The Mathematical Analysis of Logic. Cambridge: Macmillan, Barclay & Macmillan, 1847. Boole G. An Investigation of the Laws of Thought. London: Walton & Maberly, 1854. Boyer R. S. and Moore J. S. A Computational Logic. New York; Academic Press, 1979.
Brachman R. J. On the epistemological status of semantic networks. In Brachman and Levesque (1985), 1979.
Brachman R. J. / lied about the trees. AI Magazine 6(3), 1985.
Brachman R. J. and Levesque H. J. Readings in Knowledge Representation. Los Altos, CA: Morgan Kaufmann, 1985.
Brachman R. J., Fikes R. E. and Levesque H. J. KRYPTON: A functional approach to knowledge representation. In Brachman and Levesque (1985), 1985.
Brachman R. J., Levesque H. J. and Reiter R., ed. Proceedings of the First International Conference on Principles of Knowledge Representation and Reasoning, Los Altos, CA: Morgan Kaufmann, 1990.
Breiman L., Friedman J., Olsen R. and Stone С Classification and Regression Trees. Monterey, CA: Wadsworth, 1984.
Brodie M. L., Mylopoulos J. and Schmidt J. W. On Conceptual Modeling. New York: Springer- Verlag, 1984.
Brooks R. A. A robust layered control system for a mobile robot. IEEE Journal of Robotics and Automation. 4: 14-23, 1986.
Brooks R. A. A hardware retargetable distributed layered architecture for mobile robot control. Proceedings IEEE Robotics and Automation, pp. 106-110. Raliegh, NC, 1987.
Brooks R. A. A robot that walks: Emergent behaviors from a carefully evolved network. Neural Computation 1(2): 253-262, 1989.
Brooks R. A. Intelligence without reason. Proceedings of IJCA1-91, pp. 569-595. San Mateo, CA: Morgan Kaufmann, 1991a.
Brooks R. A. Challenges for complete creature architectures. In Meyer and Wilson, 1991. Brooks R. and Stein L. Building brains for bodies. Autonomous Robots, 1: 7-25, 1994.
Brown J. S. and Burton R. R. Diagnostic models for procedural bugs in basic mathematical skills. Cognitive Science, 2, 1978.
Brown J. S. and VanLehn K. Repair theory: A generative theory of bugs in procedural skills. Cognitive Science, 4: 379-426, 1980.
Brown J. S., Burton R. R. and deKleer J. Pedagogical, natural language and knowledge engineering techniques in SOPHIE. In Sleeman and Brown (1982), 1982.
Библиография 811
Brownston L., Farrell R., Kant E. and Martin N. Programming Expert Systems in OPS5: An Introduction to Rule-Based Programming. Reading, MA: Addison-Wesley, 1985.
Buchanan B. G. and Mitchell Т. М. Model-directed learning of production rules. In Waterman and Hayes-Roth (1978), 1978.
Buchanan B. G. and Shortliffe E. H. ed. Rule-Based Expert Systems: The MYC1N Experiments of the Stanford Heuristic Programming Project. Reading, MA: Addison-Wesley, 1984.
Bundy A. Computer Modeling of Mathematical Reasoning. New York: Academic Press, 1983.
Bundy A. The use of explicit plans to guide inductive proofs. Lusk R. and Overbeek R. (ed), Proceedings of CADE 9. pp. 111-120, New York: Springer Verlag, 1988.
Bundy A., Byrd L., Luger G., Mellish C, Milne R. and Palmer M. Solving mechanics problems using meta-level inference. Proceedings of IJCAI-I979, pp. 1017-1027, 1979.
Bundy A. and Welham R. Using meta-level inference for selective application of multiple rewrite rules in algebraic manipulation. Artificial Intelligence, 16: 189-212, 1981.
Burks A. W. Theory of Self Reproducing Automata. University of Illinois Press, 1966.
Burks A. W. Essays on Cellular Automata. University of Illinois Press, 1970.
Burkks A. W. Von Neumann's self-reproducing automata. In Aspray and Burks (1987), 1987.
Burmeister В., Haddadi A. and Matylis G. Applications of multi-agent systems in traffic and transportation. IEEE Transactions in Software Engineering, 144(1): 51-60, 1997.
Burstall R. M. and Darlington J. A. A transformational system for developing recursive programs. JACM, 24 (January), 1977.
Burstein M. Concept formation by incremental analogical reasoning and debugging. In Michalskietal. (1986).
Busuoic M. and Griffiths D. Cooperating intelligent agents for service management in communications networks. Proceedings of 1993 Workshop on Cooperating Knowledge Based Systems, University of Keele, UK, 213-226, 1994.
Butler M., ed. Frankenstein, or The Modern Prometheus: the 1818 text by Mary Shelly. New York: Oxford University Press, 1998.
Cahill L. and McGaugh J. L. Modulation of memory storage. In Squire and Kosslyn (1998), 1998.
Carbonell J. G. Learning by analogy: Formulating and generalizing plans from past experience. In Michalski et al. (1983), 1983.
Carbonell J. G. Derivational analogy: A theory of reconstructive problem solving and expertise acquisition. In Michalski et al. (1986), 1986.
Carbonell J. G., Michalski R. S. and Mitchell Т. М. An overview of machine learning. In Michalskietal. (1983), 1983.
Cardie С Empirical methods in information extraction. AI Magazine, Winter, 65-79, 1997.
Cardie C. and Mooney R. J. Machine learning and natural language. Machine Learning, 34, 5-9, 1999.
Carlson N. R. Physiology of Behavior, 5th ed. Needham Heights MA: Allyn Bacon, 1994.
Carpenter P. A. and Just M. A. Cognitive processes in Comprehension. Hillsdale, NJ: Erlbaum, 1977.
Ceccato S. Linguistic Analysis and Programming for Mechanical Translation. New York: Gordon & Breach, 1961.
812 Библиография
Chang С. L. and Lee R. С. Т. Symbolic Logic and Mechanical Theorem Proving. New York: Academic Press, 1973.
Charniak E. Toward a model of children's story comprehension. Report No. TR-266, Al Laboratory, MIT, 1972.
Charniak E. Statistical Language Learning. Cambridge, MA: MIT Press, 1993.
Charniak E., Hendrickson C, Jacobson N. and Perkowitz M. Equations for part-of-speech tagging. Proceedings of the Eleventh National Conference on Artificial Intelligence. Menlo Park, CA; AAAI/MIT Press, 1993.
Charniak E. and McDermott D. Introduction to Artificial Intelligence. Reading, MA: Addison-Wesley, 1985.
Charniak E., Riesbeck С. К., McDermott, D. V. and Meehan J. R. Artificial Intelligence Programming, 2nd ed. Hillsdale, NJ: Erlbaum, 1987.
Charniak E. and Shimony S. Probabilistic semantics for cost based abduction. Proceedings of the Eighth National Conference on Artificial Intelligence, pp. 106-111. Menlo Park, CA: AAAI Press/ MIT Press, 1990.
Charniak E. and Wilks Y. Computational Semantics. Amsterdam: North-Holland, 1976.
Chen L. and Sycara K. Webmate: A personal agent for browsing and searching. Proceedings of Second International Conference on Autonomous Agents (Agents 98), 1998.
Chomsky N. Aspects of the Theory of Syntax. Cambridge, MA: MIT Press, 1965. Chorafas D. N. Knowledge Engineering. New York: Van Nostrand Reinhold, 1990.
Chung К. Т. and Wu С. Н. Dynamic scheduling with intelligent agents. Metra Application Note 105. Palo Alto: Metra, 1997.
Church A. The calculi of lambda-conversion. Annals of Mathematical Studies. Vol. 6. Princeton: Princeton University Press, 1941.
Churchland P. S. Neurophilosophy: Toward a Unified Science of the Mind/Brain. Cambridge, MA: MIT Press, 1986.
Clancy W. J. The advantages of abstract control knowledge in expert system design. AAAI-3,1983. Clancy W. J. Heuristic Classification. Artificial Intelligence, 27: 289-350, 1985.
Clancy W. J. and Shortliffe E. H. Introduction: Medical artificial intelligence programs. In Clancy and Shortliffe (19846), 1984a.
Clancy W. J. and Shortliffe E. H., ed. Readings in Medical Artificial Intelligence: the First Decade. Reading, MA: Addison-Wesley, 19846.
Clark A. Being There: Putting Brain, Body, and World Together Again. Cambridge, MA: MIT Press, 1977.
Clocksin W. F. and Mellish С S. Prog, in PROLOG, 2nd ed. New York: Springer-Verlag, 1984. Codd E. F. Cellular Automata. New York: Academic Press, 1968. Codd E. F. Private communication to J. R. Koza. In Koza (1992), 1992.
Cohen P. R. and Feigenbaum E. A. The Handbook of Artificial Intelligence. Vol. 3. Los Altos, CA: William Kaufmann, 1982.
Cole R. A., ed. Survey of the State of the Art in Human Language Technology. New York: Cambridge University Press, 1997.
Cole P. and Morgan J. L., ed. Studies in Syntax. Vol. 3. New York: Academic Press, 1975.
Библиография 813
Collins A. and Quillian M. R. Retrieval time from semantic memory. Journal of Verbal Learning & Verbal Behavior, 8: 240-247, 1969.
Colmerauer A. Les Grammaires de Metamorphose, Groupe Intelligence Artificielle. Universite Aix-Marseille II, 1975.
Colmerauer A., Kanoui H., Pasero R. and Roussel P. Un Systeme de Communication Homme-machine en Francais. Research Report, Groupe Intelligence Artificielle, Universite Aix-Marseille II, France, 1973.
Coombs M. J., ed. Developments in Expert Systems. New York: Academic Press, 1984.
Corera J. M., Laresgoiti I. and Jennings N. R. Using arcon, part 2: Electricity transportation management. IEEE Expert, 11(6), 71-79, 1996.
Cormen T. H., Leiserson С E. and Rivest R. J. Introduction to Algorithms. Cambridge, MA: MIT Press, 1990.
Cosmides L. and Tooby J. Cognitive adaptations for social exchange. In Barkow et al. (1992), 1992.
Cosmides L. and Tooby J. Origins of domain specificity: the evolution of functional organization. In Hirschfeld and Gelman (1994), 1994.
Cotton S., Bundy A. and Walsh T. Automatic invention of integer sequences. Proceedings of the AAAI-2000, Cambridge: MIT Press, 2000.
Crick F. H. and Asanuma C. Certain aspects of the anatomy and physiology of the cerebral cortex. In McClelland et al. (1986), 1986.
Crutchfield J. P. and Mitchell M. The Evolution of Emergent Computation. Working Paper 94-03-012. Santa Fe Institute, 1995.
Cutosky M. R., Fikes. R. E., Engelmore R. S., Genesereth M. R., Mark W. S., Gruber Т., Tenenbaum J. M. and Weber C. J. PACT: An experiment in integrating concurrent engineering systems. IEEE Transactions on Computers, 26(1): 28-37, 1993.
Dahl V. Un Systeme Deductif d'Interrogation de Banques de Donnes en Espagnol. PhD thesis, Universite Aix-Marseille, 1977.
Dahl V. and McCord M. С Treating Coordination in Logic Grammars. American Journal of Computational Linguistics, 9: 69-91, 1983.
Dallier J. H. Logic for Computer Science: Foundations of Automatic Theorem Proving. New York: Harper & Row, 1986.
Darr T. P. and Birmingham W. P. An attribute-space representation and algorithm for concurrent engineering. AIEDAM 10(1): 21-35, 1996.
Davis E. Representations of Commonsense Knowledge. Los Altos, CA: Morgan Kauftnann, 1990.
Davis L. Applying Adaptive Algorithms to Epistatic Domains. Proceedings of the International Joint Conference on Artificial Intelligence, pp. 162-164, 1985.
Davis R. Applications of meta level knowledge to the construction, maintenance, and use of large knowledge bases. In Davis and Lenat (1982), 1982.
Davis R. and Lenat D. B. Knowledge-based Systems in Artificial Intelligence. New York: McGraw-Hill, 1982.
Davis R. and Hamscher W. Model-based Reasoning: Trouble Shooting. In Hamscher et al. (1992), 1992.
814 Библиография
Davis R., Shrobe H., Hamscher W., Wieckert K., Shirley M. and Polit S. Diagnosis Based on Description of Structure and Function. Proceedings of the National Conference on Artificial Intelligence. Menlo Park, California: AAAI Press, 1982.
Dechter R. Bucket elimination: A unifying framework for probabilistic inference. Proceedings of Conference on Uncertainty in AI (UAI-96), 1996.
DeJong G. and Mooney R. Explanation-based learning: An alternative view. Machine Learning, 1(2): 145-176, 1986.
deKleer J. Qualitative and quantitative knowledge of classical mechanics. Technical Report AI-TR-352, AI Laboratory, MIT, 1975.
deKleer J. Local methods for localizing faults in electronic circuits (MIT AI Memo 394). Cambridge, MA: MIT, 1976.
deKleer J. Choices without backtracking. Proceedings of the Fourth National Conference on Artificial Intelligence, Austin, TX, pp. 79-84. Menlo Park, CA: AAAI Press, 1984.
deKleer J. An assumption based truth maintenance system. Artificial Intelligence, 28, 1986.
deKleer J. and Williams В. С Diagnosing multiple faults. Artificial Intelligence 32(1); 92-130, 1987.
deKleer J. and Williams В. С Diagnosis with behavioral modes. Proceedings of the International Joint Conference on Artificial Intelligence, pp. 13124-13330. Cambridge MA: MIT Press, 1989.
Dempster A. P. A generalization of Bayesian inference. Journal of the Royal Statistical Society, 30 (Series B): 1-38, 1968.
Dennett D. C. Brainstorms: Philosophical Essays on Mind and Psychology. Montgomery, AL: Bradford, 1978.
Dennett D. С Elbow Room: The Varieties of Free Will Worth Wanting. London: Cambridge University Press, 1984.
Dennett D. C. The Intentional Stance. Cambridge MA: MIT Press, 1987. Dennett D. С Consciousness Explained. Boston: Little, Brown, 1991.
Dennett D. C. Darwin's Dangerous Idea: Evolution and the Meanings of Life. New York: Simon & Schuster, 1995.
Dietterich T. G. Learning at the knowledge level. Machine Learning, 1(3): 287-316, 1986.
Dietterich T. G. and Michalski R. S. Inductive learning of structural descriptions; Evaluation criteria and comparative review of selected methods. Proceedings DC AI 6, 1981.
Dietterich T. G. and Michalski R. S. Learning to predict sequences. In Michalski et al. (1986), 1986.
Doorenbos R., Etzioni. O. and Weld D. A scalable comparison shopping agent for the world wide web. Proceedings of the First International Conference on Autonomous Agents (Agents 97), pp. 39-48, 1997.
Doyle J. A truth maintenance system. Artificial Intelligence, 12, 1979.
Doyle J. Some theories of reasoned assumptions: An essay in rational psychology. Tech. Report CS-83-125. Pittsburgh; Carnegie Mellon University, 1983.
Dressier O. An extended basic ATMS. Proceedings of the Second International Workshop on Non-Monotonic Reasoning, pp. 143-163. Edited by Reinfrank, deKleer, Ginsberg and Sandewall. Lecture Notes in Artificial Intelligence 346. Heidelberg: Springer-Verlag, 1988.
Библиография 815
Dreyfus H. L. and Dreyfus S. E. Mind Over Machine. New York: Macmillan/The Free Press, 1985.
Drazdel M. J. Qualitative Verbal Explanations in Bayesian Belief Networks. AISB Quar. 1, 96, 1996.
Druzdel M. J. and Henrion M. Efficient reasoning in qualitative probabilistic networks. Proceedings of the llth National Conference on Artificial Intelligence (AAAI-93), pp. 548-553, 1993.
Duda R. O., Gaschnig J. and Hart P. E. Model design in the PROSPECTOR consultant system for mineral exploration. In Michie (1979), 1979a.
Duda R. O., Hart P. E., Konolige K. and Reboh R. A computer-based consultant for mineral exploration. SRI International, 19796.
Durfee E. H. and Lesser V. Negotiating task decomposition and allocation using partial global planning. Distributed Artificial Intelligence: Vol II, Gasser, L and Huhns, M. ed. San Francisco: Morgan Kaufmann, 229-244, 1989.
Durkin J. Expert Systems: Design and Development. New York: Macmillan, 1994.
Eco, Umberto. A Theory of Semiotics. Bloomington, Indiana: University of Indiana Press, 1976.
Edelman G. M. Bright Air, Brilliant Fire: On the Matter of the Mind. New York: Basic Books, 1992.
Elman J. L., Bates E. A., Johnson M. A., Karmiloff-Smith A., Parisi D. and Plunkett K. Rethinking Innateness: A Connectionist Perspective on Development. Cambridge, MA: MIT Press, 1996.
Engelmore R. and Morgan Т., ed. Blackboard Systems, London: Addison-Wesley, 1988.
Erman L. D., Hayes-Roth F., Lesser V. and Reddy D. The HEARSAY II speech understanding system: Integrating knowledge to resolve uncertainty. Computing Surveys, 12(2): 213- 253,1980.
Erman L. D., London P. E. and Fickas S. F. The design and an example use of HEARSAY III. In Proceedings IJCAI 7, 1981.
Ernst G. W. and Newell A. GPS: A Case Study in Generality and Problem Solving. New York: Academic Press, 1969.
Etherington D. W. and Reiter R. On inheritance hierarchies with exceptions. Proceedings AAAI-83, pp. 104-108, 1983.
Euler L. The seven bridges ofKonigsberg. In Newman (1956), 1735.
Evans T. G. A heuristic program to solve geometric analogy problems. In Minsky (1968), 1968.
Falkenhainer B. Explanation and theory formation. In Shrager and Langley (1990), 1990.
Falkenhainer В., Forbus K. D. and Gentner D. The structure mapping engine: Algorithm and examples. Artificial Intelligence, 41(1): 1-64, 1989.
Fass D. and Wilks Y. Preference semantics with ill-formedness and metaphor. American Journal of Computational Linguistics IX, pp. 178-187, 1983.
Feigenbaum E. A. The simulation of verbal learning behavior. In Feigenbaum and Feldman (1963), 1963.
Feigenbaum E. A. and Feldman J., ed. Computers and Thought. New York: McGraw-Hill, 1963.
Feigenbaum E. A. and McCorduck P. The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World. Reading, MA: Addison-Wesley, 1983.