В том же направлении движется и технология. Будущее персонализации — и вычислений как таковых-представляет собой странный сплав реального и виртуального. Там наши города [382] Псевдодокументальный фильм — от англ. mockumentary (to mock — «издеваться» и documentary — «документальный фильм»). Прим. ред.
, спальные комнаты и все прочие пространства представляют собой «интеллектуальное окружение» (ambient intelligence). Наша среда меняется вокруг нас, чтобы соответствовать нашим предпочтениям и даже настроениям. И в этом будущем рекламодатели начнут разрабатывать еще более мощные и еще сильнее искажающие реальность способы продемонстрировать нам свои продукты.
Иными словами, подходит к концу то время, когда стена фильтров исчезает, как только мы отрываемся от компьютера.
Робот с «Гейдаром [383] Разговорное слово, обозначающее способность определять чью-либо сексуальную ориентацию. Производное от слов gay и radar. Прим. пер.
»
Профессор из Стэнфорда Райан Кейло много думает о роботах. Но он не тратит время на рассуждения о киборгах и андроидах. Его больше интересуют роботы Roomba-маленькие пылесосы, уже вовсю продающиеся в магазинах. Владельцы дают своим машинкам имена, как домашним питомцам. Они умиляются, глядя, как маленькое неуклюжее устройство катается по комнате. Roomba вызывает эмоциональную реакцию, даже внушает иллюзию неких отношений. И в следующие несколько лет к ним присоединится целая армия их электронных братьев.
Проникновение человекоподобных машин в нашу повседневную жизнь ставит перед нами новые дилеммы по части персонализации и приватности. «Человечность» как виртуальных персонажей, так и реальных роботов вызывает сильные эмоции. И когда люди начнут относиться к машинам так же, как к другим людям, эти аппараты смогут убеждать нас поделиться личной информацией, которую мы бы сознательно никогда не выдали.
Прежде всего присутствие лица, похожего на человеческое, меняет наше поведение, побуждает нас вести себя так, будто мы находимся на публике. Одно из проявлений этого эффекта продемонстрировал китайский эксперимент с Джин-Джином и Чачей, мультяшными интернет-полицейскими. В то же время, по словам Кейло, люди гораздо менее охотно делятся частной информацией, когда их допрашивает виртуальный агент, чем когда им надо просто заполнить анкету [384] M. Ryan Calo. People Can Be So Fake: ANew Dimension to Privacy and Technology Scholarship. Penn State Law Review 114 (2010), no. 3:810–855.
. Отчасти поэтому мода на интеллектуальных агентов в первый раз быстро сошла на нет: во многих случаях проще выудить у людей личную информацию, если им кажется, будто они в частном порядке вводят ее в неперсонализированный механизм, а не делятся ею с людьми.
С другой стороны, когда ученые Теренс Вернем и Брайан Хейр из Гарварда попросили нескольких добровольцев сыграть в игру, в которой они могли либо пожертвовать деньги, либо оставить их себе, изображение дружелюбного робота по имени Кисмет увеличивало пожертвования на 30 процентов [385] Vanessa Woods. Pay Up, You Are Being Watched. New Scientist, Mar. 18, 2005, www.newscientist.com/article/dn7144-pay-up-you-are-being-watched.html.
. Человекоподобные агенты склоняют нас держать при себе интимные подробности нашей жизни, потому что мы чувствуем себя так, будто рядом есть другие люди. Но для пожилых людей или детей в больнице виртуальный друг или робот может стать спасением от одиночества и скуки.
Это о хорошем. Тем не менее человекоподобные агенты обладают изрядной властью над нами. «Компьютеры, запрограммированные быть вежливыми или демонстрировать определенные личностные черты, — пишет Кейло, — могут оказать серьезнейшее влияние на уровень вежливости, восприимчивости и иные аспекты поведения испытуемых» [386] Calo. People Can Be So Fake.
. Поскольку они вступают в контакт с людьми, они могут вытянуть информацию, которую мы вовсе не намеревались выкладывать. Флиртующий робот может считывать подсознательные сигналы — движения глаз, язык тела, — чтобы быстро определять особенности личности собеседника.
Проблема, по мнению Кейло, заключается в следующем: трудно все время помнить, что человекоподобные программы и агрегаты на самом деле не люди. «Адвертары» или роботы-помощники могут иметь доступ ко всем персональным данным, выложенным в онлайн. Они могут знать о вас даже больше, чем ваш лучший друг. По мере совершенствования методики убеждения и анализа личности эти механизмы получат необычайно тонкое представление о том, как можно менять ваше поведение.
Читать дальше