Здесь есть с чем поспорить. Например, станет ли кто-нибудь всерьез утверждать, что какая-то система с ИИ сможет распутать тугой узел политических противоречий на Ближнем Востоке? Стоит признать, что мы, люди, пока не очень преуспели на этом поприще. Но вера в то, что ИИ когда-нибудь сможет решить эту проблему, требует слишком фанатичной преданности идеям технологического прогресса, которая чужда многим людям (включая меня): политические и исторические причины существующих конфликтов настолько сложны и замысловаты, что ИИ вряд ли под силу учесть их в полной мере.
Еще один футуристический сценарий, рожденный воображением некоторых сторонников идеи о сингулярности, не сулит ничего хорошего для человечества — роботы в нем берут контроль над всем. Согласно этому сценарию, «сверхразумный» ИИ будет стремиться во что бы то ни стало достичь каких-то собственных целей. В результате мы можем оказаться в весьма невыгодном положении. Причем все может обойтись без причинения вреда людям (хотя и такое развитие событий вполне возможно). Но, подобно тому, как большинство людей не заботит судьба муравьев, сверхразумный ИИ может в итоге причинить нам вред или даже уничтожить нас, если мы встанем у него на пути. Например, ИИ, разработанный для производства скрепок, в будущем может переключиться на человеческие тела, используя их как источник атомов металлов: так, железо в нашей крови может стать сырьем для скрепок.
Одним словом, люди резко расходятся во мнениях не только в вопросе о самой возможности наступления сингулярности, но также и в вопросе о том, будет ли это хорошо или плохо для нас. В любом случае нас ждет немало интересного впереди. Но совсем не обязательно верить в сингулярность, чтобы предсказать, что ИИ предстоит захватывающее будущее. Вряд ли кто-нибудь станет спорить, что ИИ шагнет далеко вперед по сравнению с текущим состоянием. Но насколько далеко он сможет шагнуть? Получится ли у ИИ, например, пройти знаменитый тест Тьюринга? В 1950 г. Тьюринг предложил тест, призванный показать, что машины могут думать. По условиям теста программа на основе ИИ должна вести беседу с людьми в течение пяти минут. Для успешного прохождения 30 % участников не должны догадаться, что их собеседник — компьютер. Тест до сих пор не пройден, хотя во многих случаях ИИ удавалось обмануть людей, если они не знали, что их собеседником может быть компьютер.
Каждый год в Блетчли-парк, там, где Тьюринг работал над расшифровкой кода немецкой «Энигмы» во время Второй мировой войны, проводится состязание по прохождению теста Тьюринга (оно транслируется в интернете). Участники борются за Премию Лёбнера: $2000 получает система, которая показывает лучший результат в конкретном году, приз в $25 000 ждет «первый компьютер, чьи ответы будет невозможно отличить от человеческих», и награда в $100 000 достанется создателям человекоподобной системы, наделенной способностью к аудиовизуальному восприятию, а также владеющей языком.
Пока никому не удалось получить заветные $25 000. Ни одна программа не смогла обмануть судей в 30 % случаев, как это требуется по условиям теста. Справедливости ради следует упомянуть, что в 2014 г. одной из программ удалось убедить 33 % собеседников в том, что они говорили с человеком. Однако из нескольких вариантов описания возможного собеседника, предложенных организаторами теста, большинство из них выбрали 13-летнего мальчика-украинца. Иными словами, язык (это был английский), на котором с ними общался компьютер, был далек от совершенства. Собеседники-люди закрывали глаза на ошибки и неуклюжие обороты, что было вполне естественно: когда мы общаемся с иностранцами, в особенности с детьми, которые вынуждены говорить не на своем родном языке, мы всегда делаем скидку на их произношение.
Сам собой напрашивается вопрос: «Ну и что?» Допустим, однажды появится система ИИ, которая пройдет тест Тьюринга или даже так называемый расширенный тест Тьюринга, предусматривающий участие робота, обладающего похожими на человеческие способностями к восприятию и двигательной активности. Что это докажет? Будет ли это означать, что компьютеры действительно умеют думать? Будет ли это означать, что они обладают сознанием?
Понятие сознания с трудом поддается определению. Однако мы все-таки можем отделить функциональное сознание от феноменального. Первая из этих категорий охватывает целый ряд психологических дихотомий — бодрствующий / спящий, намеренный / неумышленный, внимательный / невнимательный, доступный / недоступный, осознаваемый / неосознаваемый, отрефлексированный / неотрефлексированный и т. д.
Читать дальше
Конец ознакомительного отрывка
Купить книгу