Журнальный клуб Интелрос » Финиковый Компот » №8, 2015
«Да, — он махнул рукой и потянулся за зажигалкой, — весь автостоп скоро закончится. Будет искусственный интеллект фуры катать. Хотя, может быть, и у них совесть вместе с мозгами появится, кто знает».
Добрый дальнобойщик, трасса М10, 2014 год.
Финиковый компот немного сменил формат: теперь мы стали чуть-чуть серьезнее. И мы выяснили удивительную вещь: скучная академическая тема возможности сознания, реализованного на небиологическом носителе, привлекла к работе над номером гораздо больше людей, чем наши прошлые топики, например, философия лени, философия курения, философия смеха или философия видеоигр. Я рад, что так произошло. С другой стороны, не такая уж это и кабинетная тема. Достаточно сказать, что она не отпускает чувствительных к повестке дня кинематографистов: «Скоро вернусь» (серия «Черного зеркала»), «Превосходство», «Страховщик», новые «Мстители», «Ex Machina», очень милый «Робот по имени Чаппи» и многие другие фильмы посвящены этой теме. Готовится к выходу ремейк «Терминатора». Обзор художественных воплощений ИИ читайте в статьях Елены Бояршиновой (философский факультет МГУ) и Николая Герасимова (Дом русского зарубежья им. А.Солженицына), а о том, почему Нео был избран, а Джон Коннор — нет, вы узнаете из эссе Евгения Быкова (факультет гуманитарных наук ГУ-ВШЭ).
Видимо, наши познавательные способности устроены так, что, рассуждая о предельных основаниях человеческой природы, нам удобно иметь пред глазами пример чего-то нечеловеческого. Вряд ли это необходимое условие. Но, скажем, схоласты очень любили упражняться на ангелах. Если ангел — это нечто существующее, и существующее бестелесно, то как возможно передвижение ангела? Ведь движение, по Аристотелю, предполагает материальный субстрат движущегося. Не менее важны и исследования в области языка ангелов. Ведь для языка нужно слово, а слово материально, так как же могут разговаривать посланцы Бога? Насколько я знаю, теории ангельской речи сделали возможной концепцию ментального языка Оккама, которая во многом предвосхитила позитивистскую теорию языка. Возможно, в нашем следующем номере мы сможем рассказать об этой проблеме больше. Другими важными объектами для мыслительных экспериментов от века служили Бог, животное и стол. Сейчас же таким нечеловеческим выступает машина. Без преувеличения можно сказать, что машинное и реализованное на нем виртуальное — настоящий ключ к современной философии, как аналитической, так и континентальной.
Наш аналитический блок представлен статьями Артёма Беседина (философский факультет МГУ), Дмитрия Волкова (Московский центр исследования сознания при МГУ), Марии Ананиной (ФФ МГУ), Кирилла Загустина (ФФ МГУ), Ивана Позднякова (психфак МГУ) и Андрея Мерцалова (ФФ МГУ). Кроме того, мы публикуем интервью Джона Сёрла, автора знаменитой «Китайской комнаты». Именно этот аргумент прямо или косвенно пытаются опровергнуть вышеперечисленные авторы. Сёрла гармонично дополняет Филипп Гофф, молодой британский панпсихист и последователь Дэвида Чалмерса.
Китайская комната
В 1980 г. Джон Сёрл предложил аргумент, который до сих пор находится в центре внимания философии ИИ. Тьюринг допустил, что мы и есть сложные машины для вычислений, и Сёрл принял вызов: а давайте человек, о котором мы точно знаем, что он сознателен, сядет в комнату, но будет вести себя не как человек, а как машина, а именно — манипулировать символами. Я сижу в закрытой комнате с русскоязычной инструкцией по манипулированию китайскими символами. Я не знаю китайского и не смогу отличить иероглиф от простой закорючки. От экзаменаторов в комнату приходят сообщения по-китайски, и я, следуя правилам, на иероглиф А отвечаю иероглифом В. Предположим, что инструкция написана так, что я могу составить ответ на любой заданный вопрос. Тогда комната пройдет ТТ, но я ничего не пойму. Значит, ни о каком понимании у машин речи быть не может. Общий вывод Сёрла: синтаксиса недостаточно для семантики, а значит, ИИ невозможен. За 20 лет до аргумента Сёрла советский физик и писатель-фантаст Анатолий Днепров опубликовал рассказ «Игра», где с изяществом предвосхитил выводы Сёрла. Читайте об этом в статье Артёма Беседина.
Системное возражение
Можно возразить: да, я не понимаю, но вся комната понимает. Сёрл даст простой ответ. Суждение «я и бумага, на которой написаны инструкции, понимаем» — контринтуитивно. В бумаге нет ничего, что могло бы понимать. Кроме того, я могу просто зазубрить всю «книгу правил» и выйти из комнаты в чисто поле. Я и в таком случае пройду ТТ, и всё равно ничего не пойму.
Светящаяся комната
Перенесёмся в 1894 год, когда Дж. Максвелл уже открыл, что свет — это электромагнитные волны, но еще не обрёл признания. Согласно его идее, если человек в тёмной-тёмной комнате начнёт перемещать магнит вверх-вниз, от магнита начнут распространяться электромагнитные волны, и в комнате станет светлее. «Но позвольте, — могли бы возразить мы ему, — в комнате совершенно темно!» Мы даже могли бы формализовать наше возражение: (1) Электричество и магнетизм суть физические силы; (2) Существенное свойство света — свечение; (3) Эти силы сами по себе не являются сущностью свечения. А это значит, что электричество и магнетизм не являются сущностью света и недостаточны для его наличия. Такое возражение, утверждают Пол и Патрисия Чёрчленды, по форме было бы идентично сёрловскому: (1) Компьютерные программы — это формальные (синтаксические) объекты; (2) Человеческий разум обладает смысловым содержанием (семантикой); (3) Синтаксис сам по себе не является сущностью семантики и его не достаточно для семантики. Согласно Сёрлу, это значит, что программы не являются сущностью разума и их наличия не достаточно для существования разума. Вывод, который делает Сёрл, столь же абсурден, что и возражения Максвеллу. В обоих случаях предпосылка (3) интуитивно выглядит правдоподобной, хотя является ложной. У Сёрла, утверждают они, нет достаточных оснований настаивать, что определённое манипулирование символами не сможет породить семантики, и он просто спекулирует на том, что мы пока недостаточно знаем биологические основания сознания.
Аргумент от объективности реализации
Аналогичный аргумент, демонстрирующий некорректность логического вывода Сёрла, приводит Дэвид Чалмерс. (1) Рецепты синтаксичны; (2) Синтаксис недостаточен для рассыпчатости; (3) Пирожные рассыпчаты. Значит, реализации рецепта недостаточно для пирожного. Это очевидно ложное рассуждение Чалмерс сопоставляет с рассуждениями Сёрла о синтаксисе и семантике. Он полагает, что проблема Сёрла заключается в том, что он совершенно не различает программы и их реализации. Да, программ самих по себе недостаточно для сознания, но вот реализованных на чем-то программ — вполне.
Индексикальные вопросы
За 35 лет с момента создания аргумента Китайской Комнаты (КК), каждое слово в исходной статье Сёрла было оспорено и подвергнуто сомнению. Философы пытались показать, что человек в Комнате всё же понимает китайский (бессознательно, вместе с инструкцией, вместе с программистами, поймет со временем и т.п.); утверждали, что существует только синтаксис, а ментальное содержание сознания — миф; что Сёрл должен имитировать не только поведение, но и реальную внутреннюю работу мозга, и т.д. Об экстравагантности приводимых возражений красноречиво свидетельствуют названия соответствующих работ: «Квантовая лингвистика и Китайская Комната», «Сознания, программы и китайские философы: китайская перспектива Китайской комнаты», «От Китайских комнат к Ирландским комнатам» и даже «Мышь-зомби в Китайской комнате».
Продолжет традицию странных названий статья профессора Вадима Васильева «Кока-кола и секрет Китайской комнаты». Васильев обратил внимание, что еще никто не атаковал предпосылку, что КК в принципе может пройти ТТ. Утверждалось, что для продуцирования ответов ей понадобится невероятное количество времени, что человек не сможет написать или интериоризировать соответствующие инструкции, но такие возражения Сёрл парирует напоминанием, что это всё-таки мысленный эксперимент. Чтобы оспорить его посылки, нужны концептуальные средства. Васильев замечает, что в лингвистическую компетентность входят способность отвечать на индексикальные вопросы. Например: «сколько времени?», «что стоит на столе?» и т.д. Может ли на них ответить Сёрл, сидящий в Комнате? Как должна быть написана инструкция в таком случае? Видимо, она должна гласить: «если вопрос содержит последовательность иероглифов XYZ, посмотри на стол, и, если там стоит банка Колы, ответь иероглифом N (банка Колы)», либо «если XYZ, отвечай M (я не знаю / я слепой и не вижу)». Если Сёрл будет систематически отвечать «М», мы заподозрим неладное. А в первом случае у него просто появится понимание.
Чтобы спасти эксперимент, Сёрл предлагает модификацию с Китайским Роботом. Пусть Робот обладает датчиками, которые Сёрл может задействовать согласно инструкции, и данные с них поступают ему в «письменной» иероглифической форме — такой, что Сёрл не будет понимать их значения. Тогда Комната сможет отвечать на индексикальные вопросы и пройдёт ТТ. Сёрл утверждает, что вариация с Китайским Роботом идентична Комнате. Но если допустить Робота, Сёрл не будет знать всю программу, требуемую для ответа, а если узнает её, то узнает и таблицу соответствий сенсорных данных иероглифам и обязательно обретёт понимание, что подорвёт весь эксперимент.
Ответ Сёрла на это возражение читайте в нашем интервью с ним. Тема индексикальных вопросов развивается в статьях Дмитрия Волкова «Аргумент внутреннего времени» и Кирилла Загустина «Китайский агент».