Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект

Здесь есть возможность читать онлайн «Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Город: Москва, Год выпуска: 2021, ISBN: 2021, Издательство: Альпина нон-фикшн, Жанр: Прочая околокомпьтерная литература, sci_popular, на русском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Совместимость. Как контролировать искусственный интеллект: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Совместимость. Как контролировать искусственный интеллект»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

В массовом сознании сверхчеловеческий искусственный интеллект — технологическое цунами, угрожающее не только экономике и человеческим отношениям, но и самой цивилизации. Конфликт между людьми и машинами видится неотвратимым, а его исход предопределенным. Выдающийся исследователь ИИ Стюарт Рассел утверждает, что этого сценария можно избежать.
В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта?
Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные.
О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте.
Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход.
Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения.
Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным.
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.

Совместимость. Как контролировать искусственный интеллект — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Совместимость. Как контролировать искусственный интеллект», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

(Вскоре мы поймем, почему интеграл раскладывается именно так.) В то же время ценность действия d , обратиться к Гарриет, состоит из двух частей: если u > 0, то Гарриет позволяет Робби продолжить, следовательно, ценность равна u , но если u < 0, то Гарриет выключает Робби и ценность равна 0:

EU (d) = ∫0−∞P (u) ∙ 0 du + ∫∞0P (u) ∙ u du.

Сравнив выражения для EU (a) и EU (d), мы сразу видим, что EU (d) ≥ EU (a), потому что в выражении для EU (d) область с отрицательной полезностью умножается на ноль и выпадает. Два варианта выбора имеют одинаковую ценность только при нулевой вероятности отрицательной области, а именно — если Робби уже убежден, что Гарриет нравится предлагаемое действие. Эта теорема является прямой аналогией хорошо известной теоремы о неотрицательной ожидаемой ценности информации.

265

Пожалуй, следующий шаг развития ситуации в случае «один человек — один робот» — это рассмотреть некую Гарриет, которая еще не знает собственных предпочтений относительно некоторых аспектов мира или предпочтения которой еще не сформированы.

266

Чтобы в точности увидеть, как именно Робби приходит к неверному убеждению, рассмотрим модель, в которой Гарриет слегка иррациональна и ошибается с вероятностью, уменьшающейся экспоненциально с ростом величины ошибки. Робби предлагает Гарриет четыре скрепки в обмен на одну скобку; она отказывается. Согласно убеждению Робби, это иррационально: даже при стоимости скрепки в 25 центов и скобки в 75 центов четыре первых следовало бы обменять на одну вторую. Значит, она совершила ошибку, но эта ошибка намного более вероятна при истинной ценности скрепки 25 центов, а не, допустим, 30 центов, поскольку цена ошибки для нее существенно возрастает, если она оценивает скрепки в 30 центов. Теперь в вероятностном распределении Робби 25 центов — самая вероятная величина, потому что она представляет собой наименьшую ошибку со стороны Гарриет с экспоненциально уменьшающимися вероятностями для цены выше 25 центов. Если он продолжит ставить этот эксперимент, то распределение вероятностей будет все сильнее концентрироваться около 25 центов. В пределе Робби приобретает уверенность в том, что для Гарриет ценность скрепки составляет 25 центов.

267

Робби мог бы, например, иметь нормальное (Гауссово) распределение для своего исходного убеждения относительно обменного курса в интервале от −∞ до +∞.

268

Пример математического анализа, который может потребоваться, см. в статье: Avrim Blum, Lisa Hellerstein, and Nick Littlestone, «Learning in the presence of finitely or infinitely many irrelevant attributes», Journal of Computer and System Sciences 50 (1995): 32–40. См. также: Lori Dalton, «Optimal Bayesian feature selection», in Proceedings of the 2013 IEEE Global Conference on Signal and Information Processing , ed. Charles Bouman, Robert Nowak, and Anna Scaglione (IEEE, 2013).

269

Здесь я немного перефразирую вопрос, поставленный Моше Варди на Асиломарской конференции по полезному ИИ в 2017 г.

270

Michael Wellman and Jon Doyle, «Preferential semantics for goals», in Proceedings of the 9th National Conference on Artificial Intelligence (AAAI Press, 1991). Эта статья основана на значительно более раннем предложении Георга фон Райта: Georg von Wright, «The logic of preference reconsidered», Theory and Decision 3 (1972): 140–67.

271

Мой покойный коллега из Беркли заслужил честь стать именем прилагательным. См.: Paul Grice, Studies in the Way of Words (Harvard University Press, 1989).

272

Первая статья о прямой стимуляции центров удовольствия в головном мозге: James Olds and Peter Milner, «Positive reinforcement produced by electrical stimulation of septal area and other regions of rat brain», Journal of Comparative and Physiological Psychology 47 (1954): 419–27.

273

Эксперимент, в котором крысам позволили нажимать на кнопку: James Olds, «Self-stimulation of the brain; its use to study local effects of hunger, sex, and drugs», Science 127 (1958): 315–24.

274

Эксперимент, в котором людям позволили нажимать на кнопку: Robert Heath, «Electrical self-stimulation of the brain in man», American Journal of Psychiatry 120 (1963): 571–77.

275

Первое математическое объяснение токовой стимуляции, показывающее, как она происходит у агентов при обучении с подкреплением: Mark Ring and Laurent Orseau, «Delusion, survival, and intelligent agents», in Artificial General Intelligence: 4th International Conference , ed. Jürgen Schmidhuber, Kristinn Thórisson, and Moshe Looks (Springer, 2011).

276

Возможность безопасного осуществления взрывоподобного роста интеллекта: Benja Fallenstein and Nate Soares, «Vingean reflection: Reliable reasoning for self-improving agents», technical report 2015–2, Machine Intelligence Research Institute, 2015.

277

Трудность, с которой сталкиваются агенты, рассуждая о себе и своих преемниках: Benja Fallenstein and Nate Soares, «Problems of self-reference in self-improving space-time embedded intelligence», in Artificial General Intelligence: 7th International Conference , ed. Ben Goertzel, Laurent Orseau, and Javier Snaider (Springer, 2014).

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Совместимость. Как контролировать искусственный интеллект»

Представляем Вашему вниманию похожие книги на «Совместимость. Как контролировать искусственный интеллект» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Искусственный Интеллект RT - Заповедник мертвецов
Искусственный Интеллект RT
Отзывы о книге «Совместимость. Как контролировать искусственный интеллект»

Обсуждение, отзывы о книге «Совместимость. Как контролировать искусственный интеллект» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x