В изначальной версии Серл направляет свой аргумент скорее против машинной интенциональности , чем против машинного сознания, доказывая, что у Китайской комнаты отсутствует «понимание». Ясно тем не менее, что, по сути, речь идет о сознании. Ядро этого аргумента, если он верен, напрямую устанавливает, что система Китайской комнаты лишена сознательных состояний, таких как сознательное переживание понимания китайского языка. Серл считает, что интенциональность предполагает сознание, так что этого достаточно для того, чтобы убедиться, что комната лишена и интенциональности. Другие, впрочем, отрицают это. В любом случае, мы можем отвлечься от вопроса о связи между сознанием и интенциональностью и сформулировать проблему исключительно в терминах сознания. При этом можно чуть лучше высветить спорные моменты.
(Иначе говоря, мы можем разделить выводы Серла на две части: (1) программы не достаточно для сознания; и (2) программы не достаточно для интенциональности. Серл полагает, что из (1) следует (2), но другие отрицают это. Яснее всего будет, если сфокусировать аргумент о сильном ИИ на (1): все стороны согласятся, что, если (1) верен, то наиболее интересная разновидность сильного ИИ обречена, и даже Серл согласился бы, что опровержение (1) показало бы, что аргумент Китайской комнаты не проходит. Связь между сознанием и интенциональностью можно выделить тогда в отдельный вопрос, не критичный для аргумента против ИИ.
Действуя подобным образом, мы избегаем ситуации, при которой оппоненты выступают против (2), не беспокоясь об опровержении (1). К примеру, возражения, сфокусированные на связи между Китайской комнатой и ее окружением (Fodor 1980; Rey 1986), и возражения, процедурно или функционально объясняющие интенциональность (Boden 1988; Thagard 1986), могут в лучшем случае прояснить вопрос об интенциональности, но они никак не повышают правдоподобность вывода о сознательности Китайской комнаты. В результате они оставляют такое чувство, будто проблема, которую ставит перед ИИ этот сценарий, так и не была рассмотрена. Максимум, что они делают, так это оспаривают вспомогательную посылку о том, что интенциональность предполагает сознание [182].)
Аргумент Китайской комнаты разворачивается следующим образом. Возьмем любую программу, которая, как предполагается, передает какой-то из аспектов сознания, к примеру, понимание китайского языка или наличие ощущения красного. Далее эта программа может быть имплементирована англоязычным субъектом, не знающим других языков, — будем называть его демоном — в черно-белой комнате. Демон вручную следует всем правилам, специфицированным программой, ведя записи о всех релевантных внутренних состояниях и переменных на клочках бумаги, при необходимости стирая и обновляя их. Мы можем также вообразить, что демон соединен с роботизированным телом, получая цифровые данные от перцептивных датчиков, манипулируя ими согласно программным спецификациям и посылая результирующие данные на моторные эффекторы. Здесь можно говорить о совершенной имплементации программы. Тем не менее кажется очевидным, что у демона нет сознательного понимания китайского и что он лишен ощущения красного. Поэтому имплементация программы не достаточна для этих сознательных переживаний. Сознание предполагает не только имплементацию релевантной программы.
Защитники сильного ИИ обычно возражали так, что они соглашались, что демон не понимает по-китайски, но доказывали, что понимание и сознание должны быть атрибутированы системе , включающей в свой состав демона и клочки бумаги. Серл заявлял об очевиднейшей неубедительности такого возражения. Действительно, в утверждении о том, что система, состоящая из субъекта и клочков бумаги, обладает коллективным сознанием, есть нечто контринтуитивное. На этой стадии аргумент заходит в тупик. Защитники ИИ доказывают, что система обладает сознанием, оппоненты находят этот вывод нелепым, и дальнейшее продвижение кажется затруднительным. Думаю, однако, что приведенные ранее доводы дают возможность выйти из тупика к сильному ИИ.
Допустим, что программа, о которой мы говорим, в действительности является комбинаторным автоматом, отражающим на нейронном уровне организацию носителя китайского языка, смотрящего на сочное красное яблоко. Демон в комнате имплементирует этот КоА, располагая клочками бумаги для каждого элемента вектора состояния и обновляя их на каждом временном шагу в соответствии с правилами перехода от состояния к состоянию. Мы можем развернуть аргументы блекнущих и скачущих квалиа, сконструировав спектр случаев, занимающих промежуточное положение между исходным носителем китайского языка и Китайской комнатой [183]. Сделать это нетрудно. Вначале мы можем вообразить, что нейроны в голове носителя китайского языка последовательно заменяются крошечными демонами, каждый из которых дуплицирует входяще — исходящую функцию нейрона [184]. При получении стимулов со стороны соседних нейронов демон производит соответствующие вычисления и, в свою очередь, стимулирует соседние нейроны. По мере замены все большего количества нейронов демоны берут верх, пока весь череп не оказывается заполнен миллиардами демонов, реагирующих на сигналы друг друга и на входящие чувственные данные, производящих вычисления, сигнализирующих другим демонам и, в свою очередь, стимулирующих моторные окончания. (Если кто-то будет возражать, сказав, что все эти демоны никогда не смогут поместиться в череп, то взамен можно вообразить сценарий с устройствами радиопередачи, находящимися вне черепа.)
Читать дальше