Эмоциональные вычисления – одно из последних значительных достижений в области ИИ: по оценкам специалистов, рынок эмоциональных вычислений вырастет с 22,2 миллиарда долларов в 2019 году до 90 миллиардов долларов к 2024 году. Распространение подобных технологий облегчает сбор данных (изображений лиц, аудиозаписей голосов и физиологических особенностей, таких как частота сердечных сокращений и интенсивность потоотделения). Алгоритмы машинного обучения теперь способны классифицировать эти данные и позволяют точно прогнозировать наше эмоциональное состояние. Это должно привести к появлению более осведомленных чат-ботов, которые смягчат свои ответы, если мы разозлимся или расстроимся. Производители автомобилей уже работают над транспортными средствами, которые предупредят нас, когда гнев или депрессия начнет негативно влиять на нашу способность вести машину. Более качественный анализ настроения уже используется британским правительством для сопоставления комментариев в социальных сетях с конкретными эмоциональными настроениями. По мере того как цифровые очки (такие как Google Glass ) становятся все более распространенными, компании вроде Brain Power предлагают новые технологии для людей с аутизмом, которые подсказывают им эмоциональное состояние окружающих и учат лучше понимать мир чувств. Другие компании разрабатывают технические решения для людей с проблемами в области психического здоровья. В частности, они задействуют в поведенческой терапии чат-ботов. Один из таких чат-ботов Ellie – виртуальный агент, финансируемый Управлением перспективных исследовательских проектов и помогающий солдатам с посттравматическим стрессовым расстройством. Karim – чат-бот, созданный стартапом X2AI из Кремниевой долины, он помогает сирийским беженцам преодолевать последствия травмы.
Будущее выглядит радужно. Однако, как и все остальные достижения, эмоциональный ИИ имеет свою темную сторону. Использование наших физиологических и эмоциональных данных без разрешения вызывает у многих большие опасения. А что, если данные используются в менее пристойных целях? Чат-бот Microsoft в женском обличье, Xiaoice , добилась значительной популярности благодаря симпатичной внешности и способности очаровывать собеседника. Около 100 миллионов 18–25-летних людей в мире беседуют с ней, причем некоторые регулярно. Является ли это лекарством от одиночества, которое нам стоит принять? Или это всего лишь циничная уловка компании, призванная повысить лояльность к бренду?
К 2022 году ваше персональное устройство будет знать о вашем эмоциональном состоянии больше, чем ваша собственная семья.
АННЕТ ЦИММЕРМАНН, вице-президент по исследованиям в компании Gartner
В 2017 году в результате утечки данных о сообщениях, отправленных рекламодателям руководством Facebook , стало известно, что компания способна отслеживать сообщения в режиме реального времени и определять, когда подростки чувствуют себя «беззащитными», «бесполезными» и «нуждающимися в увеличении уверенности». Также утверждалось, что компания может классифицировать такие состояния, как «напряженный», «побежденный», «ошеломленный», «тревожный», «нервный», «глупый», «бессмысленный», «бесполезный» и «неудачливый».
Facebook также подвергся критике за более раннее исследование 2014 года, в ходе которого компания проводила манипулирование новостными лентами почти 700 000 пользователей, чтобы повлиять на их эмоции, что нарушало этические принципы, поскольку никто из «испытуемых» не давал информированного согласия.
Мы никогда бы не позволили роботу бегать среди людей и случайным образом размахивать конечностями, так как это неизбежно привело бы к травмам. Однако в обществе до сих пор отсутствует четкое осознание того, что эмоциональный ИИ тоже способен причинить вред – а ведь эмоциональный ущерб гораздо сложнее обнаружить и исправить. Мы ни в коем случае не должны рассматривать эмоциональный ИИ как новый инструмент для манипулирования людьми. Это может привести к весьма печальным последствиям как для отдельных людей, так и для всего общества.
Сказать, что ИИ начнет делать то, что он хочет, преследуя собственные цели, все равно что сказать, что калькулятор начнет делать свои собственные вычисления.
Читать дальше
Конец ознакомительного отрывка
Купить книгу