ста ___
или
фри ___
Что вы делаете? Подумали ли вы о старте, стабильности, станции или вспомнили фритюр, фригидный, фривольный ? Представьте себе, что, пока вы выбираете слово, на экране вдруг загорается яркими буквами слово стапель и снова пропадает, заменяясь на ста__. Соблазн дать ответ «стапель» очень велик, конечно. Но руководители эксперимента сказали перед началом: «Если вы вдруг увидите на экране вспыхнувшее слово, не используйте его как ответ!» Конечно, что неудивительно, вы послушаетесь предупреждения и выберете что-то другое, например стадион или стадо. Вы не хотите использовать подсказку, поскольку следуете правилам эксперимента, озвученным экспериментатором. Но это только в том случае, если вы заметите (и осознаете) мелькнувшее слово. Если слово загорается на 50 миллисекунд и затем закрывается маской – специальным экраном – на 500 миллисекунд, вы, вероятнее всего, укажете в качестве ответа «стапель» вместо того, чтобы последовать инструкции (Debner and Jacoby, 1994). Обратите внимание, насколько чисто разработан эксперимент: две группы испытуемых, одной группе велят использовать «подсказку», если это правильный ответ, другой группе не велят использовать «подсказку», даже если это правильный ответ. Обе группы получают подсказку, которая светится либо 50 миллисекунд, либо 500 миллисекунд и закрывается маской. Но в случае с 500-миллисекундной подсказкой маска не работает, испытуемые видят ее, могут о ней рассказать, сознают, что подсказка была, и используют ее или воздерживаются от использования в зависимости от указаний. Однако на подсказку длительностью 50 миллисекунд маска действует, испытуемые утверждают, что не видели ее (это стандартное явление «обратной маскировки»). В обоих случаях, при коротком и длинном показе, мозг распознает подсказку, о чем свидетельствуют результаты эксперимента, – короткий показ повышает выбор подсказки в качестве ответа, длительный – снижает. В работе Дехейна и Накаша (Dehaene and Naccache, 2001) отмечено, что «испытуемые неспособны стратегически использовать неосознанную информацию».
Таким образом, я утверждаю, что программы глубинного обучения (до настоящего момента) различают , но не замечают . То есть поток данных, который система принимает в себя, не имеет для нее никакого значения, это просто «пища» для «переваривания». Лишенная движения и необходимости заботиться о себе система не имеет других целей, кроме как увеличения запаса обработанной информации. Watson и другие машины глубинного обучения способны, как и мы, усваивать ноу-хау, основанное на статистических закономерностях, но мы извлекаем их из опыта и способны решать , что искать и зачем, в зависимости от текущих целей. Отсутствие практического разума, интеллекта, направленного на достижение различных, меняющихся, самовоспроизводящихся стремлений, – именно это (пока) отличает действительно впечатляющего своими способностями Watson от настоящих людей. Если когда-нибудь Watson достигнет уровня сложности, с которым он сможет вклиниться в пока человеческую прерогативу рассуждений о причинах и оценок смыслов, он наконец перестанет быть инструментом и превратится в коллегу. И тогда сам Watson, а не создатели программы Watson, обретет право отвечать за свои действия.
Осознавание степени и характера зависимости машин глубинного обучения от человеческого понимания заслуживает дальнейшего исследования. В главе 8 мы обсудили уже смелую критику традиционного ИИ: потенциальные создатели разума, игнорирующие проблему добычи энергии и самозащиты, обрекают себя на создание паразитических систем, фатально зависимых от человеческого присутствия, – они лишь инструменты, не коллеги. Сегодня мы наблюдаем, как у систем ИИ появляется определенная степень понимания, постепенно создавая конкуренцию лучшим человеческим способностям, и это просто потрясающе, но и эти системы паразитируют на человеке, полностью завися от используемого ими огромного наследия человеческого разума. Google Translate не смог бы работать без миллионов отличных переводов, легших в основу его функционирования выполненных людьми, а нечеловеческие знания различных фактов в программе Watson также основаны на миллионах страниц, которые она скачивает ежедневно в Интернете. Перефразируя изречение Ньютона, можно сказать, что эти машины стоят на плечах гигантов, используя все достижения разума, полученные в процессе творческого созидания в прошлом.
Читать дальше
Конец ознакомительного отрывка
Купить книгу