* * *
Мой скептицизм насчет притязаний ИИ был обострен примерно в то самое время, когда я подал заявление в MIT. Джон Серл, влиятельный профессор философии в Калифорнийском Университете в Беркли, в то время говорил, что компьютеры не были и не смогут быть интеллектуальными. Чтоб доказать это, в 1980 году он предложил мысленный эксперимент, называемый Китайской Комнатой. Это было примерно следующее:
Предположим, у вас есть комната с прорезью в одной из стен, и внутри находится англоговорящий человек, сидящий за столом. У него есть большая книга с инструкциями и все карандаши и бумага для черновиков, которые ему как-нибудь могли бы понадобиться. Перелистывая книгу, он видит, что инструкции, написанные на английском языке, указывают ему способы манипулирования, сортировки и сравнения китайских символов. Представим себе, что указания ничего не говорят о значении китайских символов; они только задают, как символы должны быть скопированы, стерты, переупорядочены, перекодированы, и т. д.
Кто-то снаружи просовывает кусочек бумаги через прорезь. На ней написан рассказ и вопросы по этому рассказу, все на китайском. Человек внутри не говорит и не читает ни слова по-китайски, но он берет бумажку и идет работать с книгой. Он трудится и трудится, следуя инструкциям в книге. В некоторых ситуациях инструкции говорят ему записывать символы на клочке бумаги, в других — перемещать и стирать символы. Применяя правило за правилом, записывая и стирая символы, человек работает до тех пор, пока инструкции из книги не скажут ему, что все готово. По окончании, наконец у него есть новая написанная им страница символов, которая без его ведома стала ответами на вопросы. Книга говорит ему передать эту бумагу через прорезь. Он делает это и удивляется, для чего было это утомительное упражнение.
Снаружи человек, говорящий на китайском, читает страницу. Ответы правильные, он замечает — даже проницательные. Если его спросят, исходят ли эти ответы от интеллектуального разума, он определенно скажет «да». Но прав ли он? Кто понял историю? Определенно, это не человек внутри, несведущий в китайском и понятия не имеющий, о чем история. Это не книга, которая просто хорошая книга, спокойно лежащая на письменном столе среди кипы бумаг. Так где же возникло понимание? Сеел говорит, что никакого понимания не возникало, это всего лишь связка бессмысленного листания страниц и черкания карандашом. А теперь чудесное превращение: Китайская Комната — это в точности цифровая вычислительная машина. Человек — это процессор, бездумно выполняющий инструкции, книга — это программа, дающая инструкции процессору, черновики — это память. Таким образом, не важно, как хитро спроектирован компьютер для эмуляции интеллекта путем имитации человекоподобного поведения, у него нет понимания и нет интеллекта. (Серл дает понять, что он не знает, что такое интеллект; он только говорит, чем бы он ни был, компьютер не может иметь этого).
Этот аргумент создал огромную пропасть между философами и апологетами ИИ. Это расплодило сотни статей, а в дополнение — еще больше сарказма и вражды. Защитники ИИ выступили с массой контраргументов Серлу, таких как заявление, что хотя ни один из компонентов комнаты не понимает китайский, комната в целом понимает, или что человек в комнате действительно понимает китайский, но просто не знает этого. Что относительно меня, я думаю, что Серл был прав. Когда я размышлял над аргументом Китайской Комнаты и о том, как работают компьютеры, я не видел понимания ни там ни там. Я был убежден, что нам необходимо понять, что такое «понимание», найти способ формально определить его, что могло бы прояснить является система интеллектуальной или нет, когда она понимает китайский, и когда — нет. Одно лишь ее поведение не сможет нам этого сказать.
Человеку не требуется «делать» что-то, чтоб понять рассказ. Я могу спокойно прочитать рассказ, и хотя нет явного поведения, мое понимание и осмысление наглядны, по крайней мере для меня. С другой стороны, исходя из моего спокойного поведения вы не сможете понять, понял я рассказ или нет, даже если я знаю язык, на котором написан рассказ. Вы могли бы позже спросить меня, чтоб узнать, понял ли я, но мое понимание возникло, когда я читал рассказ, а не когда я отвечал на ваши вопросы. Тезис этой книги в том, что понимание не может быть измерено внешним поведением; как мы увидим в следующих главах, это внутренняя метрика того, как мозг помнит что-либо и использует эти воспоминания для того, чтоб делать предсказания. Китайская Комната, Deep Blue и большинство компьютерных программ не делают ничего похожего на это. Они не понимают, что они делают. Единственный же способ, по которому мы можем судить, является ли компьютер интеллектуальным — это по его выходным данным, или поведению.
Читать дальше