К примеру, на основе нейронного описания мозга мы могли бы получить абстрактный КоА, располагающий элементами вектора состояния для каждого нейрона и подсостояниями для каждого элемента, отражающими соответствующий диапазон состояний для каждого из нейронов. Правила перехода от состояния к состоянию в КоА отражают тип зависимости состояния каждого нейрона от состояния других нейронов и соотнесенность нейронных состояний и данных на входе и на выходе. Если значимы не только нейронные компоненты мозга, то можно включить и их. Любая физическая система, имплементирующая этот КоА, будет иметь такую высокодетализированную функциональную организацию, которая будет дуплицировать функциональную организацию мозга на нейронном уровне. Согласно принципу инвариантности, эта система будет обладать переживаниями, неотличимыми от тех, которые связаны с мозгом.
Заманчиво представлять компьютер просто как устройство с входом и выходом, между которыми есть место лишь для формальных математических манипуляций. Подобный взгляд на вещи, однако, игнорирует тот ключевой факт, что внутри компьютера — так же как и внутри мозга — имеется богатая каузальная динамика. В самом деле, в обычном компьютере, понейронно имплементирующем симуляцию моего мозга, есть место для реальной каузальности напряжений различных цепей, в точности отражающей паттерны каузальности между нейронами. Каждому нейрону будет соответствовать участок памяти, репрезентирующий этот нейрон, и каждый из этих участков будет физически реализован напряжением в каком-то физическом месте. За возникающий сознательный опыт отвечают именно эти каузальные паттерны электрических цепей, так же как за его возникновение отвечают каузальные паттерны нейронов мозга.
Тезис сильного искусственного интеллекта можно защищать и напрямую, используя аргументы от блекнущих и от скачущих квалиа. При наличии любых двух имплементаций КоА между ними будет спектр случаев, в которых физические компоненты имплементации заменяются по одному при сохранении паттерна их каузального взаимодействия с остальной частью системы. Если одна из систем обладает сознанием, и если КоА является абстрактным выражением ее высокодетализированной функциональной организации, то из упомянутых аргументов следует, что вторая система должна обладать сознанием и что она должна быть наделена неотличимыми сознательными переживаниями. Если бы вторая система не обладала сознанием, то существовала бы промежуточная система с блекнущими квалиа. Если бы вторая система не обладала сознанием или имела другие осознанные переживания, то мы смогли бы сконструировать промежуточную систему со скачущими квалиа. Такие последствия неправдоподобны по причинам, указанным в главе 7. Но если принять, что квалиа не могут блекнуть или скакать подобным образом, то из этого следует, что вторая из изначально имевшихся у нас систем обладает переживаниями, неотличимыми от переживаний первой системы, что и означает признание истинности тезиса о сильном искусственном интеллекте.
Здесь есть небольшая тонкость. Аргумент предполагает, что организация мозга может быть абстрагирована в КоА-описание. Для этого нужно лишь, чтобы релевантная организация могла быть описана в терминах конечного множества частей, каждая из которых имеет конечное множество релевантных состояний. Однако это можно было бы оспорить. Не исключено, к примеру, что для каждого нейрона требуется бесконечное множество состояний, чтобы передать непрерывность соответствующих процессов, имеющую важное значение. И можно было бы утверждать, что переходы между этими бесконечными состояниями могли бы оказаться невычислимыми. Позже я еще рассмотрю подобное возражение; пока же я готов принять вывод, что если когнитивная динамика вычислима, то надлежащая вычислительная организация будет порождать сознание. Иначе говоря, тут меня больше интересуют внутренние, а не внешние возражения. Тем не менее позже в этой главе я отвечу на ряд внешних возражений.
4. Китайская комната и другие возражения
Противники сильного ИИ, конечно же, подчас выдвигали конкретные доводы против этой позиции. Наиболее известным из них мы обязаны Джону Серлу, излагающему их, в частности, в статье 1980 г. «Сознания, мозги и программы». Я отвечу на них в рамках очерченной модели.
Китайская комната
В ходе знаменитого аргумента против сильного ИИ, Серл (Searle 1980) доказывает, что любая программа может быть имплементирована без порождения ментального. Доказательство построено на демонстрации того, что он считает контрпримером для тезиса о сильном ИИ: Китайской комнаты, внутри которой субъект, манипулирующий символами, симулирует человека, понимающего китайский язык. Китайская комната задумана как иллюстрация системы, имплементирующей программу — какой бы они ни была — при отсутствии релевантного сознательного опыта.
Читать дальше