Нам совершенно необходимо изменить наш подход. Нужно перестать подвергать технологии фетишизации, провести аудит алгоритмов, отслеживать акты проявления неравенства, сокращать наличие стереотипов как в вычислительных системах, так и в самой индустрии технологий. Если код есть закон, то, вспоминая Лоуренса Лессинга, необходимо удостовериться, что те, кто его пишет, сами ему же следуют. Пока что их попытки самоуправления оставляют желать лучшего. Мы не можем учиться на прошлых поступках, но нам нужно обратить на них внимание.
В нескольких современных проектах из области науки и журналистики говорится о том, что грядет новый, более сбалансированный подход к пониманию ИИ. Один из них – подход исследовательского центра Института современного искусственного интеллекта (AI Now Institute) при Университете Нью-Йорка, основанный в 2017 г. Кейт Кроуфорд из отдела исследований Microsoft и Мередит Уиттакер из Google. Созданный представителями Кремниевой долины, проект был запущен Управлением по политике в области науки и технологий при Белом доме президента Барака Обамы и Национальным экономическим советом. Первый отчет центра был сфокусирован на социальных и экономических проблемах ближайшего будущего, связанных с ИИ. Ученые выделили четыре области: здравоохранение, рынок труда, неравенство и этика. Второй отчет призывал «все публичные институции, в частности, ответственные за криминологическую экспертизу, системы здравоохранения, социального обеспечения и образования немедленно перестать использовать системы ИИ и алгоритмы типа “черный ящик” и перейти на системы, обеспечивающие прозрачность работы механизмов, например, посредством легализации, аудита и общественной экспертизы» [164] Crawford, “Artificial Intelligence’s White Guy Problem”; Crawford, “Artificial Intelligence – With Very Real Biases”; Campolo et al., “AI Now 2017 Report”; boyd and Crawford, “Critical Questions for Big Data.”
. Исследовательский центр данных и общества, возглавляемый Даной Бойд, придерживается цели понять и обратить внимание общественности на роль человек в ИИ [165] boyd, Keller, and Tijerina, “Supporting Ethical Data Research”; Zook et al., “Ten Simple Rules for Responsible Big Data Research”; Elish and Hwang, “Praise the Machine! Punish the Human! The Contradictory History of Accountability in Automated Aviation.”
. Так, например, эксперимент с анализом «хороших селфи» из главы 9 мог бы выиграть от более детальной интерпретации социального контекста тех, кто селфи создает (и тех, кто придумал эксперимент). Другая интересная область, достойная внимания, – люди, фильтрующие нежелательный контент в социальных сетях. Когда контент с порнографией или сценами насилия обнаруживается онлайн, человек его проверяет, действительно ли это видео с обезглавливанием, неприличная фотография или другие примеры худших человеческих проявлений. Ведь психологические последствия ежедневного созерцания чего-то подобного могут быть травматичны [166] Chen, “The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed.”
. Нам нужно изучить эту практику и вместе, как единая культура, принимать решения о том, что она означает и как с ней быть.
Внутри сообщества специалистов в области машинного обучения были подвижки в сторону качественно иного понимания алгоритмического неравенства и ответственности. Сообщество вокруг конференции о честности и прозрачности машинного обучения (Fairness and Transparency in Machine Learning) – лидеры в этом вопросе [167] Fairness and Transparency in Machine Learning, “Principles for Accountable Algorithms and a Social Impact Statement for Algorithms.”
. Тем временем профессор Латанья Суини из Лаборатории приватности данных при Гарвардском университетском институте количественного социального анализа проводит по-настоящему новаторскую работу с точки зрения понимания потенциала возможностей нарушения приватности больших массивов данных, в частности медицинских. Цель лаборатории состоит в том, чтобы разработать технологии и политику, «гарантирующие защиту приватности при сборе частной (в том числе конфиденциальной) информации для выполнения разных задач» [168] Data Privacy Lab, “Mission Statement”; Sweeney, “Foundations of Privacy Protection from a Computer Science Perspective.”
. Кроме того, в Кембридже Лаборатория медиа при МТИ под руководством Джои Ито проводит превосходную работу по трансформации нарратива о расовом и этническом разнообразии в области вычислительной науки, а также способствует запуску систем запроса. Благодаря аналитической работе студента МТИ Картика Динакара, изучавшего феномен человека в контуре управления, профессор Лаборатории медиа МТИ Ияд Рахван начал разрабатывать проблему, обозначенную им как общество в контуре управления машинного обучения , благодаря которой надеется артикулировать моральные проблемы в современных системах ИИ (напоминает проблему вагонетки). В другом проекте, инициированном медиалабораторией МТИ и Центром Беркмана Кляйна в Гарварде и спонсируемом Фондом этики и управления искусственным интеллектом, фокус исследователей обращен к этике и управлению ИИ.
Читать дальше