Библиотека    Новые поступления    Словарь    Карта сайтов    Ссылки






назад содержание далее

Часть 10.

3. Начальная версия

Чуть ранее я привел предварительный вариант предположений основного на­правления в когнитивной науке. Теперь мне бы хотелось как можно яснее объяснить, почему когнитивизм все это время интуитивно казался привлека­тельным. Версия о соотношении между человеческим интеллектом и вычис­лением восходит по крайней мере к классической работе Тьюринга (1950) и, как мне кажется, является основанием когнитивизма. Я назову ее начальной версией:

Начнем с двух утверждений математической логики, а именно с тезиса Чёрча-Тьюринга и теоремы Тьюринга. Для наших целей формулировка тезиса Чёрча-Тьюринга такова: для любого ал­горитма существует некая машина Тьюринга, способная выпол­нять этот алгоритм. В тезисе Тьюринга говорится, что существу­ет универсальная машина Тьюринга, способная симулировать любую машину Тьюринга. Таким образом, если мы сложим эти два определения, то результатом будет то, что машина Тьюрин­га может выполнять любой алгоритм.

Хорошо, но почему этот вывод такой уж восхитительный? Дело в том, что у целого поколения молодых исследователей искусственного интеллекта начина­ли бегать мурашки по коже при одной мысли: а что если мозг - это и есть универсальная машина Тьюринга?

Ну а существуют ли объективные причины для предположения, что мозг мог бы быть универсальной машиной Тьюринга? Продолжим рассмот­рение начальной версии:

Ясно, что некоторые ментальные способности людей являются алгорит­мическими. Например, я могу сознательно производить деление стол-

189

биком, проходя через этапы алгоритма для решения задач с делением столбиком. Более того, этот процесс будет следствием тезиса Чёрча-Тьюринга и теоремы Тьюринга о том, что все, что алгоритмически может сделать человек, может также быть сделано и на универсальной машине Тьюринга. Например, я могу применить алгоритм, который я сам использую для деления в столбик, и на цифровом компьютере. В этом случае, в соответствии с описанием Тьюринга (1950), мы оба - я (человеческий компьютер) и механический компьютер - используем один и тот же алгоритм. Я это делаю сознательно, а механический ком­пьютер - несознательно (nonconsciously). Теперь кажется разумным предположить, что может существовать целый набор таких же вычис­лительных ментальных процессов, происходящих в мозге неосознанно. А если так, то мы могли бы узнать, как работает мозг, симулируя эти самые процессы на цифровом компьютере. Таким же способом, ка­ким мы получили компьютерное симулирование процессов для осу­ществления деления в столбик, мы могли бы получить компьютерное симулирование процессов понимания языка, зрительного восприятия, категоризации и т. д.

“Ну а как же быть с семантикой? В конце концов, программы лишь синтаксичны”. Здесь в начальной версии в игру вступает другой набор логико-математи­ческих доводов:

Развитие теории доказательства (proof theory) показало, что с учетом некоторых общеизвестных ограничений семантические отношения между утверждениями могут быть полностью отражены синтаксичес­кими отношениями между предложениями, выражающими эти утвер­ждения. Теперь, если мы допустим, что ментальное содержимое в го­лове выражено синтаксически, то для объяснения ментальных процес­сов нам надо будет объяснить лишь вычислительные процессы между синтаксическими элементами, находящимися в голове. Если теория доказательства окажется верной, то рассматривать семантику не при­дется. Именно этим занимаются компьютеры: они применяют теорию

Таким образом, мы имеем четко определенную программу исследования. Мы пытаемся разыскать программы, реализуемые в мозге, путем программиро­вания компьютеров для выполнения таких же программ. Мы делаем это пооче­редно: сначала добиваясь соответствия между механическим компьютером и человеческим компьютером (для соответствия системе Тьюринга), а затем с помощью психологов ищем доказательства тому, что внутренние процессы одинаковы в двух разновидностях компьютеров.

190

Я бы попросил читателя держать в уме эту начальную версию при чтении всего нижеследующего. Особенно обратите внимание на различение Тьюрин­гом сознательного выполнения программы человеческим компьютером и не­сознательным выполнением программы мозгом или механическим компью­тером. Также обратите внимание на мысль о том, что нам, возможно, удастся разыскать программы, применяемые в природе, и они будут теми же про­граммами, которые мы загружаем в наши механические компьютеры.

Если почитать книги и статьи в поддержку когнитивизма, то можно отыс­кать некоторые общие предположения, порой не сформулированные, но, тем не менее, распространенные.

Во-первых, очень часто предполагается, что единственной альтер­нативой взгляду на мозг как на цифровой компьютер является некая форма дуализма. Я рассмотрел причины подобной категоричности в главе II. Риторически говоря, идея здесь заключается в том, чтобы принудить читателя думать, что если он не согласится с идеей о том, что мозг - это некая разновидность компьютера, то тогда он неизбежно обречен на сомнительные ненаучные взгляды.

Во-вторых, также предполагается, что вопрос, являются ли процессы в мозге вычислительными, это эмпирический вопрос. Он должен разрешить­ся с помощью фактического исследования так же, как фактически разреши­лись вопросы относительно того, является ли сердце насосом и осуществля­ют ли зеленые листья фотосинтез. Здесь нет места логическому разбору или концептуальному анализу, т.к. в данном случае мы имеем дело с неотврати­мым научным фактом. В самом деле, я думаю, что многие люди, работаю­щие в этой области, усомнятся в том, что вопрос, который я здесь ставлю, вообще является адекватным философским вопросом. Вопрос “Является ли мозг на самом деле цифровым компьютером?” для них не более философс­кий, чем вопрос “Является ли ацетилхолин на самом деле нейропроводни-ком в нейромускульных соединениях?”

Даже люди, не являющиеся сторонниками когнитивизма, такие как Пенроуз (1989) и Дрейфус (1972), по всей видимости, считают этот вопрос полностью фактическим. Их, по-видимому, не беспокоит то, каким является утверждение, в котором они усомнились. Я же озадачен вопросом: какой факт, относящийся к мозгу, мог бы привести к выводу о том, что он является компьютером.

В-третьих, еще одной стилистической особенностью подобной литерату­ры является спешка и даже порой небрежность, с которой приукрашиваются основополагающие вопросы. Каковы конкретно анатомические и физиологи­ческие особенности обсуждаемого мозга? Чем точно является цифровой ком­пьютер? И как должны быть связаны ответы на эти два вопроса? Обычный подход в подобных книгах и статьях заключается в приведении нескольких заме­чаний относительно нулей и единиц и общего изложения тезиса Чёрча-Тьюринга, а затем следуют более восхитительные вещи, как, например, компьютер-

191

ные достижения и неудачи. К своему удивлению, читая эту литературу, я обна­ружил один характерный философский пробел. С одной стороны у нас есть изящный набор математических утверждений, начиная с теоремы Тьюринга и заканчивая тезисом Чёрча о теории рекурсивного действия. С другой стороны у нас есть впечатляющий комплект электронных приспособлений, которые мы каждый день используем. Поскольку у нас такая продвинутая математика и такая хорошая электроника, мы предполагаем, что кто-то каким-то образом уже сделал за нас основную философскую работу по соединению математики с электроникой. Но, по-моему, дело обстоит совсем не так. Наоборот, мы пре­бываем в особой ситуации, когда среди практиков не существует общего тео­ретического согласия относительно абсолютно фундаментальных вопросов, как-то: Чем точно является цифровой компьютер? Чем точно является символ? Чем точно является алгоритм? Чем точно является вычислительный процесс? При каких точно физических условиях две системы выполняют одну и ту же программу?

4. Определение вычисления

Так как относительно фундаментальных вопросов нет общего согласия, мне кажется, будет лучше всего обратиться к самим источникам, к первоначаль­ным определениям Алана Тьюринга.

По Тьюрингу, машина Тьюринга может выполнять определенные элементарные операции: на своей ленте она может переписать 0 на 1, может переписать на своей ленте 1 на 0, она может сдвинуть ленту на одно деление влево или же на одно деление вправо. Она управляется программой, состоящей из инструкций, где каждая инструкция опре­деляет условия выполнения задания и само задание, если позволяют условия.

Таково стандартное определение вычисления, которое может оказаться несколько обманчивым, если понимать его буквально. Если вы вскроете сто­ящий у вас дома компьютер, то вы вряд ли обнаружите в нем нули, единицы или ленту. Но для определения это не имеет особого значения. Чтобы обнару­жить, что предмет действительно является цифровым компьютером, нам, вы­ходит, не нужно собственно искать нули, единицы и т.п.; нам скорее следует искать что-то, что мы могли бы трактовать как или считать за или использо­вать как функцию нулей и единиц. Кроме того, дело усложняется еще больше, т.к. выходит, что такую машину можно сделать практически из чего угодно. Как говорит Джонсон-Лэирд: “Ее можно сделать как счеты из костяшек и прутков, из гидравлической системы, по которой течет вода, ее можно сделать из транзи­сторов, закрепленных на силиконовом чипе, через который проходит электри­ческий заряд, она также может быть воспроизведена и мозгом. В каждой из этих машин используются разные агенты для изображения бинарных симво­лов. Расстановка костяшек, наличие или отсутствие воды, уровень напряжения

192

и, быть может, нервные импульсы” (Johnson-Laird 1988, стр.39).

Похожие замечания делаются большинством людей, пишущих на эту тему. Например, Нед Блок (1990) показывает, как мы можем получить электричес­кую систему, в которой единицы и нули будут приписываться уровням напря­жения в 4 и 7 вольт соответственно. Нам может показаться, что теперь нужно отыскивать уровни напряжения. Но Блок говорит нам, что единица лишь “кон­венционально” приписывается определенному уровню напряжения. Ситуа­ция становится еще более загадочной, когда он сообщает, что нам вообще не обязательно электричество, и что мы можем использовать сложную систему из кошек, мышей и сыра, чтобы устроить нашу систему таким образом, что находящаяся на привязи кошка, пытаясь вырваться, тем самым будет откры­вать элемент системы, который мы также сможем рассматривать как 0 или 1. Блок настойчиво пытается донести до нас то, что “техническая реализация совершенно не важна для вычислительной дескрипции. Эти системы работают по-разному, но они, тем не менее, вычислительно эквивалентны” (стр. 260). В том же русле Пилишин утверждает, что вычислительная последовательность может быть реализована в “стае голубей, приученных клевать так, чтобы это отвечало требованиям машины Тьюринга!” (1984, стр. 57).

Но теперь, если мы пытаемся серьезно воспринять идею о мозге как цифро­вом компьютере, мы сталкиваемся с неприятным выводом о том, что мы можем из чего угодно создать систему, которая будет делать то же, что и мозг. С этой точки зрения, выражаясь языком вычисления, “мозг”, способный работать как мой или ваш, можно создать из кошек, мышей и сыра или из прутков или водо­проводных труб или еще чего-нибудь, с тем условием, что обе системы будут, как говорит Блок, “вычислительно эквивалентны”. Вам просто потребуется слиш­ком много кошек, голубей, водопроводных труб или чего-либо другого. Защит­ники когнитивизма заявляют об этом выводе с полным и не скрытым удовлетво­рением. Но им следовало бы побеспокоиться, и я попытаюсь показать, что этот вывод - всего лишь вершина целого айсберга проблем.

5. Первое затруднение: синтаксис внутренне не присущ физическим свойствам

Почему же такая множественная применимость не смущает сторонников кон­цепции вычисления? Ответ заключается в том, что они думают, что одна и та же функция может быть реализована многими способами. В таком случае компь­ютеры очень похожи на карбюраторы и термостаты. Если карбюратор можно сделать из латуни и стали, то тогда и компьютер можно сделать из неограничен­ного числа производственных материалов.

Но здесь существует разница: классы карбюраторов и термостатов опре­деляются в терминах производства физических последствий. Именно поэтому никто не скажет, что карбюратор можно сделать из голубей. Класс же компью-

193

теров определяется синтаксически в терминах приписывания нулей и единиц. Возможность различной реализации - это следствие того, что соотносимые свойства являются чисто синтаксическими, а не того, что один и тот же физи­ческий результат может быть получен с применением различных физических веществ. В данном случае единственная причастность физических свойств зак­лючается в том, допускают ли они приписывание нулей и единиц и перехода между ними.

Это влечет за собой два гибельных следствия:

Принцип, предполагающий возможность различной реализации, должен также предполагать и возможность универсальной реализации. Если вычисление определяется заданием синтаксиса, то все что угодно может считаться цифровым компьютером, т. к. любой объект может стать предметом синтаксического приписывания. Нулями и единицами мож­но описать все.

Еще хуже то, что синтаксис не является внутренне присущим фи­зике. Приписывание синтаксических свойств всегда зависит от агента или наблюдателя, трактующего физические явления синтаксически.

Так чем же, собственно, эти следствия гибельны?

Нам хотелось узнать, как работает мозг, и особенно как он произ­водит ментальные явления. Но мы не ответим на вопрос, если скажем, что мозг является цифровым компьютером в том же смысле, в каком им является желудок, печень, сердце, солнечная система и штат Канзас. По нашей модели мы должны были найти какой-нибудь факт относитель­но работы мозга, который показал бы нам, что мозг - это цифровой компьютер. Нам хотелось узнать, можно ли говорить о мозге как компь­ютере так же естественно, как и о том, что зеленые листья осуществляют фотосинтез, а сердце перекачивает кровь. Нельзя сказать, что мы “конвенцио­нально” приписываем сердцу слово “насос”, а листьям слово “фотосинтез”. Имеет место реальный факт. Наш вопрос заключается в следующем: “Существу­ет ли реальный факт, делающий мозг цифровым компьютером?” Сказать, что мозг - это цифровой компьютер, потому что все что угодно - цифровой компь­ютер, значит не ответить на вопрос.

Исходя из хрестоматийного определения вычисления сложно сказать, как можно избежать следующих выводов:

1. Для любого предмета существует такое его описание, в соответ­ствии с которым этот предмет можно рассматривать как цифровой ком­пьютер.

2. Для любой программы или для любого достаточно сложного предмета, существует такая дескрипция, в соответствии с которой предмет выполняет эту программу. Так, например, стена за моей спиной сейчас выполняет програм­му Wordstar, потому что есть некая структура молекулярного движения, изо­морфная формальной структуре программы Wordstar. Таким образом, если

194

стена выполняет программу Wordstar, то если она будет достаточно большой, то сможет выполнять любую программу, включая любую программу, выпол­няемую мозгом.

Мне кажется, что главная причина, почему защитники когнитивизма не усматривают проблемы в возможности множественной или уни­версальной реализации, заключается в том, что они не рассматривают ее как следствие более глубокой проблемы, а именно того, что “синтаксис” не является таким же физическим свойством, как масса или сила тяжести. Они же, наоборот, рассуждают о “синтаксических двигателях” (“syntactical engines”) и даже семантических двигателях (“semantic engines”) как о бензиновых или ди­зельных двигателях, будто является реальным фактом то, что мозг или что угод­но еще - это синтаксический двигатель.

Я думаю, что проблема возможной универсальной реализации не являет­ся серьезной проблемой. Мне кажется, что вполне возможно предотвратить универсальную реализуемость как следствие, если дать понятию вычисления более строгое определение. Мы, конечно, должны учесть то, что программис­ты и инженеры рассматривают универсальную реализуемость как искажение изначальных определений Тьюринга, а не как действительное следствие вычис­ления. В неопубликованных работах Брайана Смита, Винода Гоеля и Джона Батали говорится о том, что более реалистическое определение вычисления будет акцентировать такие свойства, как каузальные связи между состояниями программы, возможность программирования и контроля за механизмом и его расположение в реальном мире. Результатом всего этого будет то, что подоб­ной схемы недостаточно. Должна существовать каузальная структура, способ­ная снять гарантированные контрфактические высказывания. Но в настоящей дискуссии подобные ограничения определения вычисления не помогут, пото­му что глубинная проблема заключается в том, что синтаксис по своей сути является понятием, зависящим от наблюдателя (observer relative). Возмож­ность множественной реализации вычислительно эквивалентных процес­сов в разных физических средах указывает не только на то, что эти процес­сы абстрактны, но и на то, что они вообще внутренне не присущи данной системе. Они зависят от внешнего истолкования. Мы ищем реальные факты, способные сделать процессы в мозге вычислительными, но, исходя из данного нам определения вычисления, таких фактов просто не может быть. С другой стороны, мы не можем сначала сказать, что все что угодно может быть цифро­вым компьютером, если только мы припишем ему синтаксис, а затем вопрос о том, является ли или нет цифровым компьютером некая естественная система, такая как мозг, считать вопросом о факте, внутренне присущем фактическим операциям этой системы.

То же самое можно постулировать, и не употребляя слово “синтаксис”, если оно вводит в заблуждение. Другими словами, кто-нибудь мог бы возра­зить, сказав, что понятия “синтаксис” и “символы” - это всего лишь обороты

195

речи, и что нас на самом деле интересует существование систем с дискретны­ми физическими явлениями и установление переходов между этими явления­ми. С этой точки зрения мы не нуждаемся в нулях и единицах как таковых, они используются лишь для удобства. Но это, как мне кажется, тоже не выход. Физи­ческое состояние системы будет считаться вычислительным только относи­тельно приписывания этому состоянию некой вычислительной роли, функции или интерпретации. С исчезновением нулей и единиц сама проблема не исчез­нет, потому что такие понятия как вычисление, алгоритм или программа не называют физических свойств, внутренне присущих системам. Вычислитель­ные состояния не выявляются внутри физических свойств, они приписыва­ются физическим свойствам.

Здесь есть одно отличие от аргумента “китайской комнаты”, и я должен был заметить его еще десять лет назад, но не сделал этого. Аргумент “китайс­кой комнаты” показывал, что семантика не является внутренне присущей син­таксису. Сейчас я отдельно утверждаю то, что синтаксис внутренне не присущ физическим свойствам. Исходя из целей первоначального обсуждения, я пред­полагал, что синтаксическое описание компьютера не было проблематичным. Но это ошибка. Невозможно назвать что-либо цифровым компьютером и ска­зать, что в этом заключается его внутреннее свойство, потому что описание чего-либо как цифрового компьютера всегда зависит от наблюдателя, припи­сывающего синтаксическую интерпретацию чисто физическим свойствам си­стемы. Это значит, что гипотеза о “языке мысли” несостоятельна. Невозможно найти неизвестные предложения, внутренне присущие вашей голове, т. к. что-либо является предложением только относительно агента или пользователя, использующего его как предложение. Применительно к вычислительной мо­дели вообще это означает, что описание процесса как вычислительного являет­ся описанием физической системы, осуществляемым снаружи, и распознание вычисления в любом процессе не является распознанием внутренне присуще­го физического свойства. Такое распознание является по своей сути описани­ем, зависящим от наблюдателя.

Это следует четко понимать. Я не говорю, что существуют априорные ограничения для схем, которые мы можем обнаружить в природе. Без сомне­ния, мы могли бы раскрыть схему событий происходящих в мозге, которая являлась бы изоморфной программе тестового редактора vi, выполняемой моим компьютером. Но сказать, что что-либо функционирует подобно вычис­лительному процессу, значит сказать нечто большее, чем то, что имеет место схема физических взаимодействий. В данном случае необходимым становится приписывание каким-либо агентом вычислительной интерпретации. Подоб­ным образом, мы можем обнаружить в природе предметы, у которых была бы форма стульев, и которые могли бы использоваться в качестве таковых, но мы никогда не сможем обнаружить в природе предметов, функционирующих в качестве стульев, иначе как относительно агентов, которые бы рассматривали и

196

использовали их как стулья.

Для того чтобы полностью понять суть аргумента, необходимо по­нимать различие между свойствами, которые внутренне присущи миру, и свойствами, зависящими от наблюдателя. Такие понятия как “масса”, “гра­витационное притяжение” и “молекула” обозначают свойства, внутренне при­сущие миру. Даже если исчезнут все наблюдатели, в мире все равно будет существовать масса, гравитационное притяжение и молекулы. Но такие выра­жения, как “прекрасный день для пикника”, “ванна” или “стул”, не называют свойства, внутренне присущие реальности. Они скорее называют предметы, подчеркивая некоторое свойство, которое было им приписано, некоторое свой­ство, зависящее от наблюдателей или пользователей. Если бы никогда не было пользователей или наблюдателей, все равно существовали бы горы, молекулы, массы и гравитационное притяжение. Но если бы никогда не существовало пользователей или наблюдателей, не существовало бы таких свойств, как “быть прекрасным днем для пикника” или “быть стулом” или “быть ванной”. Припи­сывание свойств, зависящих от наблюдателя, к числу свойств, внутренне при­сущих миру, не является произвольным. Некоторые внутренние присущие свой­ства мира упрощают использование предметов в качестве, например, стульев или ванной. Но свойство быть стулом, ванной или прекрасным днем для пикни­ка - это такое свойство, которое существует лишь относительно пользователей или наблюдателей. Главное, на что я хочу здесь указать, это то, что, исходя из стандартного определения вычисления, вычислительные свойства являются зависящими от наблюдателя. Они не являются внутренне присущими. Аргу­мент, следовательно, может быть резюмирован следующим образом:

Цель естественной науки -раскрыть и описать свойства, внутренне при­сущие естественному миру. Исходя из определений вычисления и познания, вычислительная наука ни коим образом не сможет быть естественной нау­кой, потому как вычисление не является внутренне присущим свойством мира. Она приписывается в зависимости от наблюдателей. 4

6. Второе затруднение: когнитивизму свойственно заблуждение, связанное с гомункулом

Похоже, что мы столкнулись с проблемой. Синтаксис не часть физики. Следстви­ем этого будет то, что, если вычисление определяется синтаксически, то ничто, по сути, не является цифровым компьютером лишь благодаря своим физическим свойствам. Есть ли выход из этого затруднения? Да есть, и он стандартно используется в когнитивной науке. Но этот выход является выходом из огня, да в полымя. Большинству из тех работ по теории вычислительных функций сознания, которые я видел, тем или иным образом присуще заблуждение, связанное с гомункулом. Суть его заключается в том, что в мозге есть некий агент, использующий его для своих вычислений. Типичным примером является Дэвид Марр (1982), описываю-

197

щий задачу зрения, как переход от двухмерных визуальных восприятий на сетчатке гааза к трехмерному описанию внешнего мира, как обработку данных зрительной системы. Все затруднение в том, кто собственно читает предоставленное описа­ние. В самом деле, из прочтения книги Марра, а также многих других стандартных книг на эту тему, складывается впечатление, что нам следует воззвать к гомункулу внутри системы для того, чтобы он трактовал ее операции как поистине вычисли­тельные.

Многим писателям, например Деннету (1978), заблуждение, связанное с гомункулом не кажется таким уж проблематичным. Им кажется, что гомунку­ла можно “исключить”. Идея заключается в следующем: так как вычислитель­ные операции компьютера можно раскладывать на более простые составляю­щие до тех пор, пока мы не достигнем простых бинарных схем, типа “да-нет”, “1-0”, создается впечатление, что гомункулы более высоких уровней могут заменяться на более глупых гомункулов, до тех пор пока мы не достигнем низ­шего простого уровня, в котором, по сути, нет гомункула. Коротко, вся идея заключается в том, что рекурсивное разложение исключит гомункула.

Мне потребовалось немало времени, чтобы понять, к чему эти люди нас пытаются склонить. Так что, если кто-нибудь еще над этим также недоумевает, я приведу пример и детально его объясню. Допустим, у нас есть компьютер, умножающий шесть на восемь, чтобы получить сорок восемь. Мы задаем вопрос: “Как он это делает?” Ответом может быть то, что он семь раз5 прибав­ляет шестерку к ней самой. Но если вы спросите: “Как он добавляет шестерку к ней самой семь раз?”, на это можно ответить, что сначала он переводит все цифры в двоичную систему счисления, а затем применяет простой алгоритм для оперирования с двоичной системой счисления до тех пор, пока мы, нако­нец, не достигнем нижнего уровня, на котором все инструкции существуют в форме “написать нуль, стереть единицу”. Так, например, на верхнем уровне наш умный гомункул говорит: “Я могу умножать шесть на восемь, чтобы получить сорок восемь”. Но на следующем, более низком уровне, он заменя­ется на более глупого гомункула, который говорит: “Я вообще-то не умею умножать, но я умею складывать”. Под ним находятся еще более глупые, кото­рые говорят: “Мы, на самом деле, не умеем ни складывать, ни умножать, но мы знаем, как осуществить переход из десятичной в двоичную систему”. Под этими сидят еще более глупые, которые говорят: “Мы вообще-то ничего по­добного не знаем, но мы умеем работать с двоичными символами”. На самом нижнем уровне находится целая компания гомункулов, которые просто гово­рят: “Ноль один, ноль один”. Все высшие уровни сводятся к этому низшему. По настоящему существовать может только низший уровень, все верхние уров­ни - это уровни лишь как-бы (as-if).

Разные авторы (например, Haugeland 1981; Block 1990) описывают это свойство, когда заявляют, что система - это синтаксический дви­гатель, управляющий семантическим двигателем. Но нам снова приходится

198

сталкиваться с нашим старым вопросом: какие факты, внутренне присущие сис­теме, делают ее синтаксической? Какие факты относительно низшего уровня или любого другого уровня превращают все операции в нули и единицы? Без гомун­кула, находящегося вне рекурсивного разложения, у нас даже нет синтаксиса, с которым мы могли бы работать. Попытка элиминировать заблуждение, связан­ное с гомункулом внутри рекурсивного разложения заканчивается неудачей, пото­му что единственный путь сделать синтаксис внутренне присущим физическим свойствам-это поместить гомункула внутрь физических свойств.

У всего этого есть еще одна очаровательная черта. Когнитивисты с радостью допускают, что более высокие уровни вычисления, например “умножение 6 на 8”, зависят от наблюдателя; не существует чего-либо напрямую соответствующего умножению; все происходит относительно гомункула/наблюдателя. Но они хотят избавиться от этого допущения на более низких уровнях. Электронная цепочка, как они признают, на самом деле, не умножает 6 на 8 как таковые, но она в действитель­ности манипулирует нулями и единицами, и из этих манипуляций, так сказать, складывается умножение. Но допустить, что более высокие уровни вычисления не являются внутренне присущими физическим свойствам, значит допустить то же самое и относительно более низких уровней. Так что заблуждение, связанное с гомункулом все еще с нами.

Для настоящих компьютеров, тех, что вы покупаете в магазине, проблемы гомункула не существует, потому что каждый пользователь является этим самым гомункулом. Но, если мы предположим, что мозг - это цифровой компьютер, у нас остается вопрос: “А кто пользователь?” В когнитивной науке типичные воп­росы, требующие гомункула, это вопросы типа: “Каким образом зрительная си­стема вычисляет форму из оттенков; каким образом она вычисляет отдаленность объекта, исходя из размера образа на сетчатке?” Параллельным вопросом мог бы быть следующий: “Каким образом гвозди вычисляют расстояние, на которое они войдут в доску, исходя из силы удара молотка и плотности древесины?” В обоих случаях ответ один: если нас интересует внутренняя работа системы (how the system works intrinsically), то ни гвозди, ни зрительная система ничего не вычисля­ют. Мы, как внешние гомункулы, можем описать их вычислительно, и это зачас­тую полезно сделать. Но вы не поймете процесс забивания гвоздей, предполагая, что гвозди каким-то образом внутренне применяют алгоритмы, и вы не сможете понять, что такое зрение, предполагая, что система выполняет, например, алго­ритм выведения формы из оттенка.

7. Третье затруднение:

синтаксис не имеет каузальных воздействий

В естественных науках существуют способы объяснения, указывающие на ме­ханизмы, являющиеся причиной выработки феноменов, которые изначально предполагается объяснить. Такой подход особенно распространен в биологи-

199

ческих науках. Примером могут являться теория болезни, ссылающаяся на микробов, теория ДНК и наследуемых особенностей и даже дарвиновская тео­рия естественного отбора. В каждом случае указан каузальный механизм, и в каждом случае это указание дает объяснение результату, производимому этим механизмом. Если вернуться и взглянуть на “начальную версию”, становится ясно, что именно такой вид объяснения предпосылает когнитивизм. Предпола­гается, что механизмы, по которым процессы в мозге осуществляют познание, являются вычислительными, и, точно указав на программы, мы определим причины познания. Одна из прекрасных сторон этой исследовательской про­граммы, как это часто замечается, заключается в том, что нам не нужно знать подробности о работе мозга для того, чтобы объяснить познание. Процессы в мозге - это лишь техническая реализация когнитивных программ, но само объяснение познания дано на уровне программы. Стандартная точка зрения, заявленная Ньюеллом (1982), утверждает то, что существует три уровня объяс­нения: уровень технической реализации (hardware), уровень программы и уро­вень интенциональности (последний уровень Ньюелл называет уровнем зна­ния (the knowledge level). Особый вклад когнитивной науки осуществляется именно на уровне программы.

Но, если правильно все, что я говорил до сих пор, то тогда этот проект в чем-то должен оказаться сомнительным. Раньше я думал, что когнитивистская теория была ложной относительно своей каузальности, но теперь я затрудня­юсь сформулировать ее в какой бы то ни было связной форме, даже в форме какого-либо эмпирического тезиса. Сам тезис заключается в том, что существует очень много символов, манипуляция которыми происходит в мозге, т.е. нулей и единиц, проносящихся через мозг со скоростью света и невидимых не только для невооруженного глаза, но и для самого сильного электронного микроскопа, и именно они являются причиной познания. Но затруднение заключается в том, что нули и единицы, как таковые, не имеют каузального воздействия, потому что они вообще существуют лишь в глазах наблюдателя. Выполняемая программа не обладает никаким каузальным воздействием, за исключением воздействия, которым обладает выполняющий эту программу прибор, потому что у программы нет ни настоящего существования, ни онтологии вне выполняющего ее прибора. Говоря языком физики, такой вещи как отдельный “уровень программы” не существует.

Вы сможете в этом убедиться, если вернетесь к начальной версии и припомните различия между механическим компьютером и человечес­ким компьютером Тьюринга. В человеческом компьютере Тьюринга дей­ствительно существует уровень программы, внутренне присущий сис­теме, и на этом уровне компьютер осуществляет каузальную функцию, превращая входные данные (input) в выходные (output). Это происходит пото­му, что человек постоянно следует правилу для осуществления определенного вычисления, и это каузально объясняет его действия. Но, когда мы программи-

200

руем компьютер на выполнение того же вычисления, приписывание вычисли­тельной интерпретации зависит от нас, внешних гомункулов. Нет никакой ин-тенциональной каузальности, внутренне присущей системе. Человеческий ком­пьютер беспрестанно следует правилам, и этот факт объясняет его поведение, но механический компьютер буквально не следует никаким правилам. Он скон­струирован так, как будто следует правилам, поэтому для практических ком­мерческих целей не важно то, что он, на самом деле, не следует никаким прави­лам. Он не может следовать правилам, потому что у него нет интенционально-го содержания, внутренне присущего системе, функционирующей каузально, чтобы вызывать поведение. А когнитивизм убеждает нас в том, что мозг рабо­тает как продающийся в магазинах компьютер, и что эта работа является при­чиной познания. Но без гомункула, как у компьютера, так и у мозга есть только схемы, а схемы не имеют никаких каузальных воздействий, помимо тех, кото­рые присущи выполняющим программу приборам. Так что, похоже, когнити­визм никак не сможет предоставить каузального основания познания.

Здесь, как мне кажется, кроется загадка. Любой, кто хоть иногда имеет дело с компьютером, знает, что мы действительно зачастую даем каузальные объяснения, ссылаясь на программу. Например, мы можем сказать, что, на­жав эту клавишу, я получил такой-то результат, потому что машина выполняет программу vi, а не программу emacs. Это похоже на обычное каузальное объяснение. Загадка состоит в том, как мы можем согласовать тот факт, что синтаксис как таковой не имеет никакого каузального воздействия, с тем, что мы действительно приводим каузальные объяснения, апеллирующие к про­грамме. И, более пристрастно, сможет ли такой вид объяснения предоставить подходящую модель для когнитивизма? Спасет ли это когнитивизм? Сможем ли мы, например, спасти аналогию с термостатом, сказав, что точно так же, как понятие “термостат” используется в каузальных объяснениях независимо от физического аспекта его употребления, понятие “программа” может ис­пользоваться в объяснении без учета того, как программа применяется на физическом уровне?

Чтобы исследовать эту загадку, давайте расширим начальную версию и посмотрим, как когнитивистская исследовательская методика функциониру­ет в реальной исследовательской деятельности. Идея заключается в том, чтобы запрограммировать обычный компьютер так, чтобы он симулировал какую-нибудь когнитивную способность, такую как зрение или язык. Затем, если мы достигаем хорошей симуляции, эквивалентной, по крайней мере, машине Тью­ринга, мы строим гипотезу о том, что компьютер-мозг применяет ту же про­грамму, что и обычный компьютер. А для проверки гипотезы мы ищем кос­венное психологическое свидетельство, например время реакции. Создается впечатление, что мы можем каузально объяснять поведение компьютера-моз­га, истолковывая программу в том же смысле, в каком мы объясняем работу обычного компьютера. Что здесь не так? Похоже ли это на совершенно закон-

201

ную программу научного исследования? Мы знаем, что преобразование обыч­ным компьютером входных данных в выходные данные объясняется програм­мой, и в мозге мы обнаруживаем такую же программу, следовательно, мы имеем каузальное объяснение.

Относительно этого проекта нас сразу же должны обеспокоить две вещи. Первое, мы бы никогда не приняли подобного вида объяснения ни для одной части мозга, если бы действительно понимали, как она работает на нейробиоло-гическом уровне. Второе, мы бы никогда не приняли это объяснение для других видов систем, вычислительные функции которых мы можем симулировать. Для иллюстрации первого пункта обратимся, например, к известному рассмотре­нию того “Что говорит глаз лягушки ее мозгу” (Lettvin, et al. 1959 in McCulloch 1965). Этот случай описан только в терминах анатомии и физиологии нервной системы лягушки. Типичный произвольно выбранный пассаж выглядит так:

Постоянные детекторы контраста (Sustained Contrast Detectors) Ни один анмиелиновый аксон этой группы не реагирует, когда общее освещение выключено. Если острая грань какого-нибудь предмета бо­лее светлого или темного, чем фон, появляется в его поле и останавли­вается, он сразу начинает разряжаться и продолжает разрядку, безотно­сительно формы грани или того, является ли предмет больше или мень­ше, чем поле восприятия (стр. 239).

Я никогда не слышал, чтобы кто-нибудь говорил, что это всего лишь техничес­кое применение, что необходимо выяснить какую программу использует ля­гушка. Я не сомневаюсь, что можно произвести компьютерную симуляцию “детекторов насекомых” у лягушки. Быть может, кто-нибудь это сделал. Но все мы понимаем, что, как только становится ясно, как зрительная система лягуш­ки работает в действительности, “вычислительный” уровень становится излишним.

Для иллюстрации второго опасения рассмотрим симуляции других видов систем. Я, например, печатаю эти слова на машине, которая симулирует пове­дение старой механической пишущей машинки.6 Что касается качества симу­ляции, то программа текстового редактора симулирует пишущую машинку лучше, чем любая известная мне программа ИИ симулирует мозг. Но ни один здравомыслящий человек не скажет: “Наконец-то мы понимаем, как работа­ют пишущие машинки, они являются реализацией программы текстового ре­дактора”. Дело просто в том, что вычислительные симуляции не дают каузаль­ного объяснения симулируемого явления.

Так что же происходит? Мы, в общем, не предполагаем, что вычисли­тельные симуляции процессов в мозге предоставляют нам какое-либо объяс­нение вместо или в дополнение к нейробиологическому объяснению того, как на самом деле работает мозг. И мы, как правило, не используем выраже-

202

ние “X- вычислительная симуляция от Y” для определения симметрического отношения. Другими словами, мы не предполагаем, что если компьютер си­мулирует пишущую машинку, то и пишущая машинка симулирует компью­тер. Мы не предполагаем, что каузальное объяснение поведения урагана предоставляется программой, симулирующей погоду. Так почему же мы должны делать исключение из этих принципов относительно неизвестных процессов в мозге? Существует ли уважительная причина для подобного исключения? И какого рода каузальным объяснением является объяснение, опирающееся на формальную программу?

Я полагаю, что решение проблемы заключается в следующем. Пос­ле исключения из системы гомункула, у вас остается лишь схема собы­тий, которой кто-либо извне может приписать вычислительную интер­претацию. Сама по себе схема может дать каузальное объяснение толь­ко в том случае, когда вы знаете, что в системе существует некая схема, и вы знаете то или иное причинное взаимодействие является частью, составляющей эту схему. И вы можете, например, на основании более ранних состояний предсказывать более поздние. Более того, если вы заранее знаете, что система была запрограммирована внешним гомун­кулом, вы можете приводить объяснения, отсылающие к интенциональности гомункула. Вы, например, можете сказать, что машина работает именно так, потому что она выполняет программу vi. Подобным образом вы можете объяснить, что эта книга начинается с рассуждения о несчастливых семьях и не содержит длинных пассажей о трех братьях, потому что это “Анна Каренина” Толстого, а не “Братья Карамазовы” Достоевского. Но вы не можете объяснять такую физическую систему как пишущая машинка или мозг, идентифицируя схему, общую для этой системы и ее компьютерной симуляции, потому что существование схемы не объясняет того, как в действительности сама система работает в качестве физической системы. В случае с познанием схеме присущ слишком высокий уровень абстракции, чтобы объяснять такие конкретные (и, следовательно, физические) явления, как наличие зрительного восприятия или понимание предложения.

Мне кажется очевидным, что мы не можем объяснить то, как функ­ционируют пишущие машинки и ураганы, указав формальные схемы, общие для них и их компьютерных симуляций. Почему же это не оче­видно в случае с мозгом?

Здесь мы подходим ко второй части решения загадки. Расширяя на­чальную версию когнитивизма, мы молчаливо предполагали, что мозг может выполнять алгоритмы для познания так же, как их выполняет человечес­кий компьютер Тьюринга и механический компьютер. Но именно это предпо­ложение было ошибочным. Для иллюстрации задайте себе вопрос, что проис­ходит, когда система выполняет алгоритм. Человеческий компьютер сознатель­но проходит шаги алгоритма, так что этот процесс является как каузальным, так

203

и логическим: логическим, потому что алгоритм предоставляет набор правил для получения выходных символов из входных символов, и каузальным, пото­му что агент осуществляет сознательное усилие для прохождения этих шагов. В случае с механическим компьютером вся система должна включать и внешне­го гомункула, и вместе с гомункулом она будет как каузальной, так и логичес­кой: логической, потому что гомункул осуществляет интерпретацию работы машины, и каузальной, потому что прохождение процесса осуществляется че­рез техническую составляющую (hardware) машины. Но соответствие этим тре­бованиям не может быть достигнуто посредством грубых, слепых, несознатель­ных нейрофизиологических операций в мозге. В мозге как компьютере нет ника­кого сознательного интенционального применения алгоритма в том смысле, в котором это происходит в человеческом компьютере, но в нем также не может быть никаких неосознаваемых применений, таких, какие имеют место в механи­ческом компьютере, потому что здесь необходим внешний гомункул для при­вязывания вычислительной интерпретации физическим явлениям. Самое боль­шее из того, что мы можем найти в мозге, это схема событий, являющаяся формально схожей с выполняемой механическим компьютером программой, но эта схема сама по себе не имеет никакого собственного каузального воздей­ствия и, следовательно, ничего не объясняет.

В целом, тот факт, что приписывание синтаксиса не устанавливает никакого каузального воздействия, является смертельным для утвержде­ния о том, что программы дают каузальное объяснение познанию. Да­вайте вспомним, что из себя представляют когнитивистские объяснения, и рассмотрим их последствия. Объяснения, подобные рассмотрению Хом-ским синтаксиса естественных языков или Марром зрения, осуществля­ются путем установления набора правил, по которым символы входных данных превращаются в символы выходных данных. У Хомского, на­пример, отдельный входной символ “S” может быть превращен в любое из бес­конечного числа предложений путем повторного применения набора синтакси­ческих правил. У Марра, представления двухмерного зрительного комплекса обращаются в трехмерные “дескрипции” мира в соответствии с определенным алгоритмом. Трехчастное различение Марра вычислительной задачи, алгорит­мического решения этой задачи и технического применения алгоритма (подобно различениям Ньюелла) стало очень популярным примером общей схемы объяс­нения.

Если воспринимать эти объяснения наивно, так, как это делаю я, то их можно сравнить с высказыванием о находящемся в комнате чело­веке, который выполняет действия в соответствии с определенным на­бором правил для образования английских предложений или для по­лучения трехмерных дескрипций, в зависимости от рассматриваемого нами случая. Но теперь давайте зададимся вопросом о том, какие фак­ты действительного мира соответствуют этим объяснениям применитель-

204

но к мозгу. Например, в случае Хомского мы не должны думать, что агент сознательно осуществляет повторяющиеся действия в соответствии с правила­ми; но мы также и не должны думать, что он бессознательно продумывает способ выполнения набора правил. Скорее правила являются “вычислительными”, и мозг осуществляет вычисления. Но что это значит? Предполагается, что мы должны рассматривать мозг как обычный компьютер. Причина припи­сывания определенного набора правил обычному компьютеру и мозгу долж­на быть единой в обоих случаях. Но мы видели, что в обычном компьютере такое приписывание всегда зависит от наблюдателя, оно зависит от гомункула, приписывающего техническим стадиям (hardware states) вычислительные ин­терпретации. Без гомункула не существует вычисления, а есть только замкну­тая электронная цепь. Так каким же образом мы помещаем в мозг вычисление без гомункула? Насколько я знаю, ни Хомский, ни Марр никогда не задавались подобным вопросом и даже не знали, что такой вопрос существует. Но без гомункула установление состояний программы не имеет никакой объясняю­щей силы. Имеет место лишь физический механизм мозг, с его различными физическими и физическими/ментальными каузальными уровнями описания.

Краткое изложение аргументов в этом разделе

Обсуждение в этом разделе было несколько обширнее, чем мне бы хотелось, но мне кажется, что оно может быть кратко изложено следующим образом:

Возражение: Каузальность вычислительных объяснений является чистым фактом. Например, компьютеры управляют самолетами, а то, как они это дела­ют, выражается посредством программы. Что могло бы быть еще более кау­зальным, чем это?

Ответ: Программа дает каузальное объяснение в следующем смыс­ле. Существует соизмеримый класс физических систем такого рода, что схемы в этих системах позволяют нам закладывать (encode) информа­цию в физические свойства, внутренне присущие системе (примером являются уровни напряжения). И эти самые схемы, включающие пре­образователи на входе и выходе системы, позволяют нам использовать любое звено этого соизмеримого класса соответствий для пилотирования самолета. Общедоступное использование этих схем упрощает при­писывание вычислительной интерпретации (это не удивительно, ведь схемы были разработаны в коммерческих целях), но такие интерпретации все равно внутренне не присущи системам. Если объяснение ссылается на про­грамму, то появляется необходимость в гомункуле.

Возражение: Да, но, допустим, мы могли бы обнаружить подобные схемы в мозге? Наличие таких внутренне присущих схем - это все, чего не хватает вычислительной когнитивной науке.

205

Ответ: Разумеется, вы можете обнаружить такие схемы. В мозге можно найти схем больше, чем кому-либо нужно. Но даже если бы мы ограничивали отбор схем, требуя адекватных каузальных связей и последующих контрфакти­ческих высказываний, отыскание такой схемы не объяснило бы нам то, что мы пытаемся объяснить. Мы не пытаемся выяснить, как внешний гомункул при­писывает вычислительную интерпретацию процессам в мозге. Мы пытаемся объяснить наличие таких конкретных биологических явлений, как сознательное понимание предложения или сознательный зрительный опыт окружающего. Для такого объяснения необходимо понимание грубых физических процессов, производящих вышеуказанные явления.

8. Четвертое затруднение:

мозг не осуществляет переработку информации

В этом разделе я, наконец-то, обращусь к тому, что, как мне кажется, в некото­ром смысле является центральной темой всего вышеописанного, а именно к теме переработки информации. Многим людям, работающим в научной пара­дигме “когнитивной науки”, покажется, что значительная часть моего обсуждения просто не относится к делу, и они будут возражать против него следую­щим образом: Существует разница между мозгом и всеми остальными описан­ными вами системами, и эта разница объясняет, почему в случае с другими системами вычислительная симуляция является лишь симуляцией, в то время как в случае с мозгом вычислительная симуляция на самом деле не является дублированием или даже моделированием функциональных свойств мозга. Причина зак­лючается в том, что мозг, в отличие от других упомянутых сис­тем, является системой, перерабатывающей информацию. И этот факт относительно мозга, выражаясь вашими словами, является “внутренне присущим” (intrinsic). Переработка мозгом информации являет­ся биологическим фактом, и то, что мы также можем перерабатывать ту же самую информацию вычислительно, указывает на отличную роль вычислительных моделей процессов мозга от вычислительных моделей таких процессов, как, например, погода.

Таким образом, имеет место четко сформулированный исследователь­ский вопрос: Являются ли вычислительные операции, с помощью кото­рых мозг перерабатывает информацию, такими же, как и операции, с помощью которых компьютеры перерабатывают ту же информацию?

Такое воображаемое возражение оппонента заключает в себе одну из самых грубых ошибок когнитивной науки. Ошибка заключается в предположении,

206

что мозг осуществляет переработку информации в том же смысле, что и компьютер. Чтобы увидеть, что это ошибка, сравните то, что происходит в компьютере с тем, что происходит в мозге. В случае с компьютером вводи­мая информация кодируется внешним агентом в форме, которая может быть переработана в замкнутой электрической сети компьютера. Это значит, что человек предоставляет синтаксическую реализацию информации, которую компьютер способен переработать, например, на разных уровнях напряже­ния. Компьютер, таким образом, проходит через несколько стадий разного напряжения, которые внешний агент может проинтерпретировать как син­таксически, так и семантически, хотя самой технической составляющей внут­ренне не присущ синтаксис или семантика: здесь все зависит от наблюдате­ля. Если происходит выполнение алгоритма, то физические свойства значе­ния не имеют. Наконец, выходными данными является некий физический феномен, например, распечатка, символы которой наблюдатель может ин­терпретировать синтаксически и семантически.

Теперь сопоставим это с мозгом. Здесь ни один нейрофизиологический процесс не является зависимым от наблюдателя (хотя, как и любой другой про­цесс, он может быть описан с точки зрения, зависящей от наблюдателя), при­чем мельчайшие нейрофизиологические подробности имеют решающее зна­чение. Что бы прояснить эту разницу, рассмотрим пример. Допустим, я вижу приближающуюся ко мне машину. Стандартная вычислительная модель зре­ния соберет информацию о воспринимаемом комплексе на сетчатке глаза и, в конечном счете, выдаст предложение “Ко мне приближается машина”. Но это не то, что в действительности происходит в биологии. В биологии благодаря бомбардировке фотонами фоторецепторов сетчатки моего глаза осуществля­ется конкретный и особый ряд электрохимических реакций. Результатом этого процесса, в конечном счете, является зрительный опыт. Биологическая реальность не является реальностью, в которой зрительная система производит группу слов или символов; скорее, этот самый зрительный опыт зависит от конкретно­го, особого, осознанного визуального события. Конкретное визуальное собы­тие так же специфично и конкретно, как ураган или переваривание пищи. Мы можем с помощью компьютера создать такую модель события или его осуще­ствления, которая сможет перерабатывать информацию, мы можем создать перерабатывающую информацию модель погоды, пищеварения или любого другого явления, но сами по себе эти явления не будут системами по перера­ботке информации.

Короче говоря, смысл, в котором когнитивная наука использует понятие “переработки информации”, находится на слишком высоком уровне абстрак­ции для того, чтобы ухватить конкретную биологическую действительность внутренней интенциональности. Понятие “информации” в мозге всегда спе­цифично относительно той или иной модальности. Оно является специфичес­ким относительно мысли, зрения, слуха или, например, прикосновения. С дру-

207

гой стороны, уровень переработки информации в вычислительных моделях познания, свойственных когнитивной науке, просто сводится к ряду символов, в качестве выходных данных, в ответ на ряд символов как входных данных.

Мы не видим этой разницы из-за того, что предложение “Я вижу прибли­жающуюся ко мне машину” может использоваться для обозначения как зри­тельной интенциональности, так и выходных данных вычислительной модели. Но это не должно затемнять того факта, что зрительный опыт - это конкретное осознаваемое событие, и оно происходит благодаря особым электрохимичес­ким биологическим процессам. Смешивать эти события и процессы с фор­мальной символьной манипуляцией - значит смешивать реальность с моде­лью. Главный пункт этой части обсуждения заключается в том, что исходя из понимания когнитивной наукой слова “информация” мозг нельзя назвать уст­ройством по переработке информации.

9. Краткое изложение аргумента

1. Согласно стандартному хрестоматийному определению, вычисление опре­деляется синтаксически в понятиях символьной манипуляции.

Но синтаксис и символы не определяются в понятиях физики. Несмотря на то, что символы всегда основываются на физических признаках, понятия “символ” и “тот же самый символ” не определяются на языке физических свойств. Коротко, синтаксис не является внутренним физическим свойствам.

Следствием этому является то, что вычисление не обнаруживается в физических свойствах, а приписывается им. Определенные физические явле­ния могут быть использованы, запрограммированы или проинтерпретирова­ны синтаксически. Синтаксис и символы задаются наблюдателем.

Вы, следовательно, не можете обнаружить то, что мозг или что-либо другое по своей сути являлось бы цифровым компьютером, хотя вы могли бы дать ему, равно как и чему угодно еще, вычислительную интерпретацию. Суть заключается не в том, что заявление “Мозг является цифровым компьютером” просто ложно. Оно, скорее, даже не дотягивает до уровня ложности. В нем нет ясного смысла. Вопрос “Является ли мозг цифровым компьютером?” постав­лен некорректно. На вопрос “Можем ли мы приписывать вычислительную интерпретацию мозгу?” ответом будет несомненно “да”, потому что мы мо­жем приписать вычислительную интерпретацию чему угодно. Если же спра­шивается: “Являются ли процессы в мозге внутренне вычислительными?”, то ответом, естественно, будет “нет”, потому что ничто не является внутренне вычислительным, за исключением, конечно, сознательных агентов, интенционально осуществляющих вычисления.

5. В одних физических системах вычислительный подход работает гораздо лучше, чем в других. Поэтому мы создаем, программируем и используем их. В таких случаях мы являемся гомункулом внутри системы, ин

208

терпретирующим физические явления как синтаксически, так и семантически.

6. Но приводимые нами каузальные объяснения не указывают на каузаль­ные свойства, отличные от физического уровня реализации и от интенциональности гомункула.

Стандартный, хотя и скрытый, выход из этой ситуации - это заблуждение, связанное с гомункулом. Заблуждение, относительно го­мункула, свойственно вычислительным методам познания, и оно не может быть снято через стандартные аргументы рекурсивного разло­жения. Они являются ответом на другой вопрос.

Нам не избежать вышеупомянутых выводов, если мы предполо­жим, что мозг осуществляет “переработку информации”. Что касается внут­ренне присущих мозгу операций, то он не осуществляет никакой переработки информации. Он является особым биологическим органом, и особые нейро­физиологические процессы в нем вызывают особые формы интенциональности. В мозге, будучи внутренне ему присущими, имеют место нейрофизиоло­гические процессы, и иногда они являются причиной сознания. На этом вся история заканчивается. Все прочие ментальные атрибуции являются либо диспозициональными, например, в тех случаях, когда мы приписываем агенту бес­сознательные состояния, либо зависящими от наблюдателя, например, в тех случаях, когда мы приписываем вычислительную интерпретацию процессам в мозге.

209

Глава X.

НАДЛЕЖАЩЕЕ ИССЛЕДОВАНИЕ

1. Введение: Сознание и природа

В любой книге по философии сознания, автор эксплицитно или имплицитно имеет некое общее представление о сознании и его отношении к остальной части природного мира. Для читателя, следившего за моей аргументацией так долго, не составит труда описать мои воззрения. Я рассматриваю человечес­кий мозг как такой же орган, как и все остальные - как биологическую систе­му. Его характерное свойство (поскольку это затрагивает сознание), свойство, в силу которого он значительно отличается от остальных биологических орга­нов, есть его способность производить и поддерживать все огромное разнооб­разие нашей сознательной жизни.1 Под сознанием я не имею в виду пассивную субъективность картезианской традиции, но все формы нашей сознательной жизни - от знаменитого “четырех /”: борьбы (fighting), бегства (fleeing), пита­ния (feeding), прелюбодеяния (fornicating), до вождения машин, написания книг и почесывания. Все процессы, о которых мы думаем как о ментальных в соб­ственном смысле - восприятие, обучение, умозаключение, принятие решений, разрешение трудностей, эмоции и т. д., - тем или иным образом тесно связанны с сознанием. Более того, все из тех величайших свойств, которые философы рассматривали как специфические для сознания, в той же степени обусловлены сознанием: субъективность, интенциональность, рациональность, свобода воли (если таковая существует), и ментальная каузальность. Более, чем что-либо еще, пренебрежение сознанием является причиной непродуктивности и стерильнос­ти в психологии, философии сознания и когнитивной науке.

Исследование разума (mind) есть изучение сознания, практически в том же смысле, что исследования в области биологии есть изучение жиз­ни. Конечно, биологам не нужно постоянно думать о жизни, и, конечно, большая часть работ по биологии даже не нуждается в использовании понятия жизни. Однако, никто, будучи в здравом уме, не отрицает, что явления, изучаемые в биологии, есть формы жизни. Равным образом, изучение разума есть изучение сознания, даже если открыто не упоминать сознание в процессе изучения умозаключения, восприятия, принятия решений, разрешения про­блем, памяти, речевых актов и т. д.

Никто не может и не станет попытаться предсказать или установить законы исследования в философии, науке или прочих дисциплинах. Новое знание нео­жиданно для нас, и одна из такая неожиданность заключается в том, что проры­вы в знании могут дать нам не только новые объяснения, но новые формы

210

объяснения. В прошлом, например, дарвиновская революция произвела но­вый тип объяснения, и я думаю, что мы не полностью представляем себе его значение в нашей нынешней ситуации.

В этой заключительной главе я хочу проанализировать некоторые послед­ствия общефилософской позиции, которую я защищал применительно к изу­чению сознания. Я начну с обсуждения принципа связи и его импликаций.

назад содержание далее




ПОИСК:




© FILOSOF.HISTORIC.RU 2001–2021
Все права на тексты книг принадлежат их авторам!

При копировании страниц проекта обязательно ставить ссылку:
'Электронная библиотека по философии - http://filosof.historic.ru'
Сайт создан при помощи Богданова В.В. (ТТИ ЮФУ в г.Таганроге)


Поможем с курсовой, контрольной, дипломной
1500+ квалифицированных специалистов готовы вам помочь