Преувеличенная комната

Михаил Белянин
Изобретение Китайской комнаты – безусловно самый яркий момент философской биографии Сёрла. Борьба с компьютерной метафорой сознания прославила Сёрла не только в философском, но и в научном мире. Это дало основание некоторым исследователям полагать, что даже философия сознания Сёрла есть не более чем излучение ослепительной вспышки 1980-го года. Именно тогда ведущий в сфере когнитивных исследований журнал «Behavioral and Brain Sciences» опубликовал самую знаменитую и чаще всего цитируемую статью Сёрла «Сознания, мозги и программы», содержащую описание мысленного аргумента Китайская комната (далее – АКК).

Согласно этой точке зрения, Сёрлу, отвергнувшему функционалистский ответ на вопрос, как мозг порождает сознание, ничего не осталось, как заявить, что сознание порождается биохимией мозга. «Биохимическое» решение появляется на последней странице книги «Интенциональность» (1983), впервые дающей очерк сёрловской философии сознания.

Однако есть все основания если не опровергнуть этот тезис полностью, то хотя бы поставить его под сомнение. Попробуем встать на противоположную точку зрения. Что если не АКК вызвал к жизни философию сознания Сёрла, а, напротив, философия сознания (пусть еще находившаяся в зачаточном состоянии) позволила построить Китайскую комнату?

Как всегда, обратимся к хронологии. В данном случае придется быть особенно внимательным к датам.

Начнём с того, что ещё до публикации в журнале статья Сёрла была разослана в ряд ведущих университетов США. Было получено 28 ответов. Состоялась дискуссия, и окончательный вариант текста был сопровожден обширными комментариями Сёрла на выдвинутые контраргументы. Иными словами, АКК возник явно не в 1980-м году, а, как минимум, годом раньше.

Мало кто знает, к тому моменту Сёрл уже имел опыт изобретения мысленных экспериментов. Его путь в философию начинался с мысленного эксперимента. Первая в жизни, еще полушутливая и очень короткая, публикация Сёрла во время обучения в Оксфорде предлагала вообразить следующую ситуацию: что произойдет, если события потекут вспять на линии времени?

Но если первый мысленный эксперимент так и остался шуткой, второй породил целый океан исследовательской литературы. Число откликов на статью «Сознание, мозги и программы» с трудом поддаётся подсчету. Мощь аргумента оказалась столь велика, что, по всей видимости, привела к резкому сокращению финансирования проекта AI (Artificial Intelligence). По мнению Сёрла, это одна из причин того, что защитники AI столь агрессивного критикуют Китайскую комнату. Эта критика, подчас напоминающая настоящую религиозную войну, подпитывается в том числе и экономическими причинами, – проще говоря, страхом лишиться очередных исследовательских грантов [Faigenbaum, 55-56]. (Это, впрочем, не помешало, Роджеру Шэнку получить в 1989 году грант на 30 млн долл от компании Andersen Consulting, после чего он уволился из Йельского Университета и создал в Чикаго Institute for the Learning Sciences (ILS). Судьба Абелсона сложилась менее удачно; он умер от осложнений болезни Паркинсона в 2005 году).

Всё это тем более удивительно, что сама идея Китайской комнаты, по собственной версии Сёрла, пришла ему в голову чуть ли не случайно. Озарение якобы произошло во время чтения книги Роберта Шэнка и Роберт Эбелсона «Scripts, Plans, Goals, and Understanding: An Inquiry into Human Knowledge Structure» (1977) в кресле самолета, по пути на конференцию, посвященную новым оптимистическим результатами в области AI [Faigenbaum, 54].

Книга Шэнка и Эбелсона вышла в свет в 1977 году, и логично допустить, что в руки Сёрла она попала не тут же из типографии, а несколько позже. Вопрос в том, насколько позже? И, кроме того, почему мы обязаны вести отчёт первых контактов Сёрла с миром искусственного интеллекта с публикации этой книги? Если верить Хьюберту Дрейфусу, первое столкновение Сёрла с Шэнком состоялось еще в 1977-м году, когда Шэнк приехал в родной для Сёрла Университет Беркли с докладом, в котором доказывал, что компьютер может понимать письменные истории [HDr, 311]. Уже тогда Сёрл возражал Шэнку, хотя на тот момент он, скорее всего, ещё не придумал Китайскую комнату.

Если Дрейфус ничего не путает, и это действительно произошло в 1977-м году, тезис о том, что Сёрл очень рано придумал возражение против AI – раньше рождения собственной философии сознания – этот критикуемый нами тезис, казалось бы, становится только крепче. Но это только на первый взгляд. Ведь возражая Шэнку в 1977-м году, Сёрл опирался не на Китайскую комнату. Китайской комнаты еще было и в помине. Тогда на что он опирался, споря с Шэнком? Выходит, какие-то доводы у него были уже тогда. И кроме того, уже тогда у него были веские причины возражать Шэнку.

И тут самое время вспомнить, что в 1977-м году работа над книгой «Интенциональность» Сёрлом уже велась. Трудно сказать, на какой стадии находилась работа, но, вероятно, основные тезисы, касающиеся сознания и интенциональности, Сёрл к тому моменту уже сформулировал, и эти тезисы явно противоречили тем предпосылкам, на которых держался доклад Шэнка [Barry Smith, 252]. А, следовательно, изобретение Китайской комнаты не привело к формулировке «простого» решения проблемы сознания-тело, а, скорее, стало лишь последней деталью для уже почти сложившегося к концу 1970-х годов «простого решения». Попробуем обосновать это утверждение и другими аргументами.

Сёрл не был единственным критиком «вычислительной» метафоры сознания. Ещё один известный критик AI - философ Хьюберт Дрейфус, автор книги «Чего не могут компьютер». Другой заслуживающий внимания критик AI — физик Роджер Пенроуз, полагающий, что невозможен не только сильный, но и слабый AI (Сёрл с этим не согласен; критике Пенроуза он посвятил обширную главу в «Мистерии сознания»). Кроме того, оказалось, что можно отвергать аргумент Сёрла, будучи при этом, как и он, противником сильной версии AI – этой линии придерживается философ и лингвист Стивен Пинкер. Но всё-таки самым известным аргументом против машинной метафоры сознания стала именно Китайская комната.

Но вернёмся к докладу Шэнка. Что именно вызвало такое несогласие Сёрла, к тому моменту философа языка, чья книга «Речевые акты» давно была бестселлером? И был ли Сёрл так уж наивен в вопросах AI к 1980-году, как он пытается представить? Сам он ссылается на вышедшие в те годы работы Терри Винограда и Джозефа Вейценбаума, в частности, на книгу последнего «Возможности вычислительных машин» (1976). Скорее всего, был он знаком и с важной статьёй Вейценбаума «ELIZA— A Computer Program for the Study of Natural Language Communication between Man and Machine» (1966). Она посвящена не просто мыслительным возможностям машин, но также их гипотетической языковой компетентности. Вейценбаум сочувственно цитировал Шэнка: «Роджер Шенк... строит свою теорию вокруг следующей центральной идеи: всякое высказывание на естественном языке представляет собой открытое проявление, кодирование, лежащей в основе этого высказывания концептуальной структуры. Понимание некоторого высказывания означает перекодирование его (Шенк использует технический термин «отображение») человеком, воспринимающим это высказывание, в свою собственную внутреннюю концептуальную структуру».

А чем конкретно в это время занимался Шэнк? В 1980 году он работал профессором компьютерных наук и психологии в Йельском университете, а, кроме того, был директором Йельского исследовательского проекта в области AI. Получив ученую степень в Техасском университете в области лингвистики, в первой половине 1970-х годов Шэнк разрабатывал модель «концептуально зависимой» семантики. В конце 1970-х вместе с одним своим студентом Шэнк работал над проблемой компьютерного распознавания английского языка. В соответствии с его концепцией любые предложения можно свести к набору семантических элементов, таких как агенты, действия, объекты и интерпретировать их, следуя знанию, записанному в сценарии. При этом язык строится с соблюдением двух базисных аксиом: (1) для любых двух предложений, идентичных по своему значению, независимо от языка, на котором они сформулированы, необходимо отыскать единственное представление; (2) любая информация, которая имплицитно содержится в предложении, может быть эксплицированы в представлении значения этого предложения.

Таким образом, согласно Шэнку, семантику можно полностью свести к синтаксическим процедурам. Именно против такого рода семантики и направлен АКК. При этом семантическая модель Шэнка имеет еще одну интересную черту — она, если так можно выразиться, «нетерпима» к любыми синонимическим структурам, равно как и к омонимам. Судя по всему, в теории Шэнка синонимы и омонимы, в конечном итоге, становятся семантическими «эпифеноменами», не необходимыми, избыточными сущностями, от которых можно и нужно избавляться в ходе чисто синтаксических перестановок.

Говоря на языке Фреге, в концепции Шэнка предполагается манипулирование значениями знаков, но не остается места их смыслам. В «Смысле и значении» Фреге писал, что в естественных языках определенный смысл не закреплен жестко за конкретным языковым выражением и максимум, на что можно рассчитывать, это привязка определенного смысла к выражению лишь на протяжении одного рассуждения. В семантике Шэнка – и это, возможно, ее главный недостаток – не допускаются нарушения жесткого соответствия между смыслом и значением. Кроме того, в его модели поиски денонатов тех или иных словесных конструкций ведутся в рамках корпуса, состоящего из этих же словесных конструкций, то есть принимается положение о самодостаточности предложения для установления его значения; осмысленность предложения фактически отождествляется с его синтаксической правильностью.

Сёрл же подчеркивает, что семантику, обладающую особой природой, нельзя свести к синтаксису. Именно поэтому, объясняет он, можно производить формальные операции с символами, не понимая их смысла. Сёрл предполагает, что человек, успешно, хоть и без малейшего понимания, манипулирующий китайскими символами, положительно проходит тест Тьюринга, изложенный в классической статье Алана Тьюринга «Вычислительные машины и разум» (1950).

Именно эта статья Тьюринга вдохновляла исследователей AI, и поэтому любопытны замечания Сёрла о тесте Тьюринга и самом Тьюринге, сделанные в статье «Тест Тьюринга 55 лет спустя» (2008) [Searle 2008]. Как отмечает Сёрл, статья Тьюринга, написанная просто и ясно, как странно, вызывает очень разные толкования. Ее внимательное чтение ставит нас перед двумя возможностями. Первая: тест Тьюринга помогает определить, способен ли компьютер имитировать человеческий разум, то есть, в сущности, способен ли компьютер обманывать. В этом случае тест тривиален; он не позволяет обнаружить существование искусственного разума, тождественного естественному человеческому разуму, а лишь тестирует способность притворяться человеческим разумом. Вторая возможность: тест действительно ведет к тем революционным выводам, которые ему часто приписывают — но в таком случае он ошибочен, и одним из его опровержений является АКК.

(Хотя в статье «Сознания, мозги и программы» Сёрл лишь скупо упоминает тест Тьюринга, АКК можно считать опровержением этого теста. По мнению Тьюринга, лингвистическая компетентность может служить индикатором разумности. Проверяя лингвистическую компетентность, то есть способность вести разговор, тест заключает о наличии разума. АКК, если он верен, показывает, что это неудовлетворительный критерий разумности: даже если программа симулирует языковую оснащенность, а именно способность понимать рассказ, она всё равно может быть полностью лишена понимания, аналогичного тому, которое есть у людей, то есть которым отличается естественный интеллект человека).

Таким образом, ещё до изобретения Китайской комнаты Сёрл имел все основания не соглашаться с моделью Шэнка. И вот что интересно. Построение Китайской комнаты в 1980-м году стало первым шагом в борьбе Сёрла с компьютерной метафорой. Затем последовал второй этап этой борьбы – формализация аргумента в 1984 году. Потом наступил третий этап – расширение изначального набора тезисов тезисом о зависимости синтаксиса от наблюдения. Однако эта последовательность сбивает с толку. На самом же деле уже при работе над книгой «Интенциональность», до есть до появления статьи 1980-го года и до, собственно, Китайской комнаты, Сёрл уже приблизительно осознавал идущие вразрез с идеями Шэнка тезисы, формализованные на втором этапе.

В статье 1980-го года Сёрл предложил вообразить человека, запертого в комнате. В комнате имеется запись рассказа, написанного по-китайски. Человек не знает на этом языке ни слова, зато располагает инструкциями, позволяющими производить формальные процедуры над иероглифами. Извне в комнату поступают вопросы, касающиеся содержания рассказа. И хотя человек не знает китайского языка, он может, пользуясь правилами манипуляции над иероглифами, составить правильный ответ на поступающие вопросы. У людей, находящихся на пределами комнаты, должно сложиться впечатление, что он владеет китайским языком. Таким образом человек пройдет тест, по своей структуре аналогичный тесту Тьюринга. Однако, подчеркивает Сёрл, человек, запертый в китайской комнате и прошедший тест, не будет понимать написанный на китайском языке рассказ. Иными словами, успешное прохождение этого теста еще не гарантирует порождение человеческого понимания. А значит говорить об успешном моделировании естественного интеллекта нельзя. Следовательно, компьютер, моделирующий процессы в мозге, не будет обладать пониманием (а также интенциональностью и сознанием), которое присуще человеку.

Таким образом, цель АКК— опровергнуть сильную версию AI. Точнее, цель аргумента опровергнуть сразу два тезиса: во-первых, что разум цифрового компьютера подобен разуму человека в силу своих вычислительных способностей и, во-вторых, что человеческий разум можно успешно изучать, рассматривая его в качестве цифрового вычислительного устройства. Защитники сильного AI не видят никаких принципиальных препятствий перед созданием искусственного интеллекта, аналогичного человеческому, с помощью внедрения на компьютере специального программного обеспечения. В этом суть компьютерной метафоры: мозг — это «аппаратная часть», сознание - программная. «Сильную версию» ИИ нужно отличать от «слабой», согласно которой процессы человеческого сознания можно симулировать компьютерными средствами (пример слабого ИИ – моделирование на компьютере процесса урагана, совершенно не похожее на реальный ураган).

Но нас больше интересует формализованный вариант аргумента. Он не столь эффектен как, собственно, Китайская комната. Сёрл впервые изложил его в книге «Сознание, мозг и наука» (1984). Аргумент представляет собой связку следующих утверждений:

1. Программы синтаксичны.
2. Сознание семантично.
3. Синтаксиса недостаточно для семантики.
4. Следовательно, программы недостаточно для порождения сознания.

Будучи синтаксическим устройством, компьютер не обладает интенциональностью и семантикой, которыми отличается человечески мозг.  компьютер. Из этого не следует - как часто неверно интерпретируют идеи Сёрла - что человеческий мозг не является машиной. Мозг - это машина, обладающая интенциональностью. Проблема не в том, что компьютер, не обладая этим свойством, является машиной, а в том, что не является машиной в достаточной степени. Компьютер – это машина, лишенная порождающего сознание каузального ядра, которое есть в мозге.

Как подчеркивает Сёрл, «никакая чисто формальная модель сама по себе не будет достаточна для интенциональности, поскольку формальные свойства сами по себе не являются составляющими интенциональности и не имеют каузальных свойств, кроме свойства переходить к следующему формальному шагу в процессе работы машины» [Деннет, Хофштадтер, 326].

Можно подумать, что формализованный аргумент по сути повторяет АКК. Это не совсем так. АКК, скорее, обосновывает третий тезис. Причём более корректно считать АКК не доказательством, а иллюстрацией третьего тезиса, как можно сделать вывод из текстов Сёрла, опубликованных после 1987 года. Этот момент часто упускают из вида те критики, которые, стремясь разрушить АКК, надеются тем самым защитить функционализм от аргументации Сёрла.

Первый и второй тезисы относительно независимы от рассуждений, связанных с Китайской комнатой. Можно, не нарушая законов логики, считать АКК дефектным, признавая при этом, что программы синтаксичны, а человеческое сознание семантично. На первый взгляд, первый и второй тезисы тривиальны. В действительности же, они могут оспариваться, а, кроме того, их можно развивать и модифицировать.

Но самое главное, что эти тезисы, во-первых, более или менее независимы от метафоры Китайской комнаты, во-вторых, очень логично и последовательно согласуются с фрегеанской по сути философией языка Сёрла, в-третьих, находятся в противоречии со всем исследовательским проектом Шэнка и, наконец, в четвертых, замечательно сочетаются с тематикой интенциональности, которую Сёрл, как уже говорилось, начал разрабатывать еще в конце 1970-х годах, а не в 1980-х годах, якобы уже после публикации знаменитой статьи «Сознания, мозги и программы». Это означает, что философия сознания Сёрла почти в том же самом виде появилась бы на свет, не будь Китайской комнаты вовсе.

А следовательно, роль Китайской комнаты в эволюции философских взглядов Сёрла преувеличена.

Приложение. Позднейшая модификация аргумента

Спустя несколько лет Сёрл сам внёс поправки в первый тезис, тем самым открыв третий этап в своей борьбе против компьютерной метафоры сознания. В 1990-м году в речи к Американской философской ассоциации Сёрл объявил, что синтаксис не присущ компьютерам изначально. Мы приписываем синтаксис компьютерам, поскольку синтаксис является свойством, которое зависит от наблюдения: «Приписывание синтаксических свойств всегда зависит от агента или наблюдателя, трактующего физические явления синтаксически» [Сёрл 2002, 193]. Тем самым философ ещё больше усилил свою антифункционалистскую позицию, заявив, что и синтаксиса, этого единственного качества, объединяющего компьютер и мозг, не существует, поскольку «синтаксис не является внутренне присущим физике», а «вычислительные свойства являются зависящими от наблюдателя» [Searle 2008, 92]. Таким образом, приписывание физической системе синтаксических свойств является не более чем интерпретацией [Сёрл 2002, 193-196; Searle 2008, 67-106]. Эта идея направлена не только против функционализма, но и против любых концепций, предполагающих, что мозг в буквальном смысле обрабатывает информацию. (Под её огонь попадает, в частности, авторитетная у когнитивистов концепция визуального восприятия Дэвида Марр).

Сёрл, впрочем, не спорит, что программы как таковые являются синтаксическими формализмам – его уточнение относится не к программам, а к физическим устройствам, на которые, как кажется их владельцам, имплементированы программы, - им, по мнению философа, нельзя однозначно приписывать синтаксические свойства. Утверждать, что на этих устройствах внедрены те или иные синтаксические программы можно лишь потому, что пользователи этих устройств полагают, что они действительно внедрены. Таким образом, речь опять же идёт не столько о первом, сколько о третьем тезисе – не о программах как таковых, а о внедрении этих программах и связанных с ними интерпретациями.

Второй тезис, утверждающий, что сознания семантичны, также потребовал уточнения со временем. По сути он составляет суть сёрловского «простого» решения проблемы сознание-тело, которое гласит, что сознание есть высокоуровневое свойством мозга. Уточнение тезиса касается интенциональности. Между семантичностью сознания и наличием у него такого свойства как интенциональность можно поставить равенство. Но интенциональность (а, следовательно, и семантичность) можно трактовать по-разному. Например, Дэниэль Деннет придерживается инструменталистской точки зрения на сознание и интенциональность, трактуя их через призму изобретенной им концепции интенциональной установки. Если Сёрл считает интенциональность исходной (intrinsic) характеристикой человеческого разума, то для Деннета это производное качество (Деннет отрицает не только второй тезис формализованного аргумента, но и все три тезиса, а также сделанный из них Сёрлом вывод). От изначального утверждения, что сознание семантично по своей природе, Сёрл пришёл к более сильному отнологическому утверждению о том, что мозг обладает внутренне присущей ему интенциональностью.

Итак, с начала 90-х годов Сёрл стал настаивать, что, во-первых, физическими системам внутренне не присущ синтаксис, а, во-вторых, человеческий мозг является источником внутренне присущей ему интенциональности. Возможно, эти уточнения стали следствием не только внутренней эволюции взглядов Сёрла на этот предмет, но и реакцией на внешнюю критику.

Литература:
Searle J. R. Mind, Brains, and Programs. Behavioral and Brain Sciences, 1980, 3(3): 417-457.
Searle J. R. Intentionality: An Essay in the Philosophy of Mind. Cambridge, 1983.
Faigenbaum G. Conversations with John Searle. 2001.
Searle J. R. Philosophy in a New Century: Selected Essays by John R. Searle. Cambridge University Press, 2008.
Barry Smith (ed.), John Searle, Cambridge: Cambridge University Press, 2003.
Сёрл Дж. Разум, мозг и программы //  Глаз разума. Даглас  Хофштадтер, Дэниэл Деннет. М., 2003. С. 314-330.
Сёрл Дж. Открывая сознание заново. М., 2002.
Сирл, Дж. Разум мозг — компьютерная программа? // В мире науки. 1990. № 3.
Вейценбаум Дж. Вычислительные возможности машин и человеческий разум. От суждений к вычислениям. М., 1982 (1976).
Дрейфус Х. Чего не могут вычислительные машины. М., 1978.