Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект

Здесь есть возможность читать онлайн «Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Город: Москва, Год выпуска: 2021, ISBN: 2021, Издательство: Альпина нон-фикшн, Жанр: Прочая околокомпьтерная литература, sci_popular, на русском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Совместимость. Как контролировать искусственный интеллект: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Совместимость. Как контролировать искусственный интеллект»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

В массовом сознании сверхчеловеческий искусственный интеллект — технологическое цунами, угрожающее не только экономике и человеческим отношениям, но и самой цивилизации. Конфликт между людьми и машинами видится неотвратимым, а его исход предопределенным. Выдающийся исследователь ИИ Стюарт Рассел утверждает, что этого сценария можно избежать.
В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта?
Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные.
О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте.
Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход.
Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения.
Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным.
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.

Совместимость. Как контролировать искусственный интеллект — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Совместимость. Как контролировать искусственный интеллект», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

…достоверная информация о соответствующей логической схеме, а также о значимости и предполагаемых последствиях указанной обработки для субъекта данных.

В настоящее время неизвестно, как суды будут добиваться исполнения этого положения. Возможно, горемычному потребителю попросту вручат описание определенного алгоритма глубокого обучения, который использовался для натаскивания классификатора, принявшего решение.

Сегодня вероятные причины алгоритмического смещения связаны с данными, а не с намеренными злоупотреблениями корпораций. В 2015 г. журнал Glamour сообщил о неприятном открытии: «Первый связанный с женщиной результат выдачи Google по поисковому запросу „генеральный директор“ оказался лишь двенадцатым — и это была Барби». (В результатах 2018 г. были и реальные женщины, но большинство из них являлись моделями, изображавшими женщин-гендиректоров на стоковых фото; результаты поиска в 2019 г. немного лучше.) Это следствие не сознательной гендерной тенденциозности механизма ранжирования поиска изображений Google, а изначальной необъективности культуры, предоставляющей данные. Мужчин среди генеральных директоров намного больше, чем женщин, и когда люди хотят изобразить «типичного» гендиректора в подписанных изображениях, то почти всегда выбирают мужчину. То, что тенденциозность вызвана, прежде всего, данными, разумеется, не означает, что незачем предпринимать меры для решения этой проблемы.

Есть и другие, технические причины того, что наивное применение методов машинного обучения может привести к тенденциозным результатам. Например, меньшинства, по определению, хуже представлены в общенациональных выборках данных, отсюда прогнозы относительно отдельных представителей меньшинств могут быть менее точными, если делаются, главным образом, на основании данных, полученных от других членов той же группы. К счастью, много внимания уже уделяется проблеме устранения непреднамеренной необъективности из алгоритмов машинного обучения, и сейчас имеются методы, обеспечивающие неискаженные результаты согласно целому ряду обоснованных и приемлемых определений объективности [183] Три свежие статьи с глубоким математическим анализом справедливости: Moritz Hardt, Eric Price, and Nati Srebro, «Equality of opportunity in supervised learning», in Advances in Neural Information Processing Systems 29, ed. Daniel Lee et al. (2016); Matt Kusner et al., «Counterfactual fairness», in Advances in Neural Information Processing Systems 30, ed. Isabelle Guyon et al. (2017); Jon Kleinberg, Sendhil Mullainathan, and Manish Raghavan, «Inherent trade-offs in the fair determination of risk scores», in 8th Innovations in Theoretical Computer Science Conference , ed. Christos Papadimitriou (Dagstuhl Publishing, 2017). . Математический анализ этих определений объективности показывает, что соответствие им всем одновременно невозможно, и если это делается принудительно, то приводит к меньшей точности прогнозов, а в случае кредитных решений — к меньшей прибыли заимодавца. Возможно, это разочаровывает, но, по крайней мере, проясняет компромисс, сопутствующий устранению алгоритмического смещения. Будем надеяться, что знание об этих методах и о самой проблеме быстро распространится среди представителей власти, специалистов и пользователей.

Итак, передача машинам власти над отдельными людьми может вызывать проблемы. Как насчет власти над массами людей? А именно — должны ли мы доверять машинам роли политиков и управленцев? В настоящее время этот вопрос может показаться надуманным. Машины не способны поддерживать продолжительный разговор и не имеют фундаментального понимания факторов, связанных с принятием широкомасштабных решений, например о повышении минимальной заработной платы или отклонении предложения другой корпорации о слиянии. Однако тенденция очевидна: машины во многих сферах принимают все более высокоуровневые решения. Рассмотрим, к примеру, авиалинии. Сначала компьютеры помогали составлять расписание полетов. Вскоре они занялись подбором экипажей, бронированием мест и управлением текущей деятельностью. Затем они были подключены к всемирным информационным сетям, чтобы создавать в реальном времени отчеты о состоянии дел для менеджеров авиалиний, чтобы те могли эффективно решать возникающие проблемы. Теперь они берут на себя управление проблемами: изменение маршрутов и графиков работы персонала, изменение брони и пересмотр графика обслуживания оборудования.

Все это к лучшему с точки зрения экономики авиалиний и удобства пассажиров. Вопрос в том, остаются ли компьютерные системы инструментом для людей или люди становятся инструментом для компьютерных систем — поставляющим информацию и при необходимости исправляющим ошибки, но уже не имеющим сколько-нибудь полного представления о том, как работает вся система. Ответ становится ясен, когда система дает сбой и во всем мире воцаряется хаос, пока ее не вернут в онлайновый режим. Например, единственный компьютерный «глюк» 3 апреля 2018 г. привел к значительной задержке или отмене 15 000 полетов в Европе [184] Новостная статья о последствиях программного сбоя при управлении воздушным движением: Simon Calder, «Thousands stranded by flight cancellations after systems failure at Europe’s air-traffic coordinator», The Independent , April 3, 2018. . Когда биржевые алгоритмы вызвали в 2010 г. «обвал» на Нью-Йоркской фондовой бирже, уничтожив $1 трлн за несколько минут, единственным решением стало прервать операции. Что тогда произошло, до сих пор не вполне ясно.

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Совместимость. Как контролировать искусственный интеллект»

Представляем Вашему вниманию похожие книги на «Совместимость. Как контролировать искусственный интеллект» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Искусственный Интеллект RT - Заповедник мертвецов
Искусственный Интеллект RT
Отзывы о книге «Совместимость. Как контролировать искусственный интеллект»

Обсуждение, отзывы о книге «Совместимость. Как контролировать искусственный интеллект» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x