Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект

Здесь есть возможность читать онлайн «Стюарт Рассел - Совместимость. Как контролировать искусственный интеллект» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Город: Москва, Год выпуска: 2021, ISBN: 2021, Издательство: Альпина нон-фикшн, Жанр: Прочая околокомпьтерная литература, sci_popular, на русском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Совместимость. Как контролировать искусственный интеллект: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Совместимость. Как контролировать искусственный интеллект»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

В массовом сознании сверхчеловеческий искусственный интеллект — технологическое цунами, угрожающее не только экономике и человеческим отношениям, но и самой цивилизации. Конфликт между людьми и машинами видится неотвратимым, а его исход предопределенным. Выдающийся исследователь ИИ Стюарт Рассел утверждает, что этого сценария можно избежать.
В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта?
Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные.
О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте.
Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги — объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход.
Введение понятия полезности — невидимого свойства — для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения.
Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным.
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.

Совместимость. Как контролировать искусственный интеллект — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Совместимость. Как контролировать искусственный интеллект», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

278

Демонстрация того, почему агент может преследовать цель, отличающуюся от его истинной цели, если его вычислительные возможности ограниченны: Jonathan Sorg, Satinder Singh, and Richard Lewis, «Internal rewards mitigate agent boundedness», in Proceedings of the 27th International Conference on Machine Learning , ed. Johannes Fürnkranz and Thorsten Joachims (2010), icml.cc/Conferences/2010/papers/icml2010proceedings.zip.

279

Высказывается мнение, что биология и нейробиология также имеют непосредственное отношение к этому вопросу. См., например: Gopal Sarma, Adam Safron, and Nick Hay, «Integrative biological simulation, neuropsychology, and AI safety», arxiv.org/abs/1811.03493(2018).

280

О возможности возлагать на компьютеры ответственность за причиненный вред: Paulius Čerka, Jurgita Grigienė, and Gintarė Sirbikytė, «Liability for damages caused by artificial intelligence», Computer Law and Security Review 31 (2015): 376–89.

281

Блестящее введение в общепринятые этические теории и их следствия для разработки ИИ-систем: Wendell Wallach and Colin Allen, Moral Machines: Teaching Robots Right from Wrong (Oxford University Press, 2008).

282

Первоисточник утилитаризма: Jeremy Bentham, An Introduction to the Principles of Morals and Legislation (T. Payne & Son, 1789).

283

Развитие Миллем идей его наставника Бентама оказало громадное влияние на либеральную мысль: John Stuart Mill, Utilitarianism (Parker, Son & Bourn, 1863).

284

Статья, вводящая понятия утилитаризма предпочтений и автономии предпочтений: John Harsanyi, «Morality and the theory of rational behavior», Social Research 44 (1977): 623–56.

285

Аргумент в пользу общественного агрегирования посредством взвешенных сумм полезностей при принятии решения от имени многочисленных индивидов: John Harsanyi, «Cardinal welfare, individualistic ethics, and interpersonal comparisons of utility», Journal of Political Economy 63 (1955): 309–21.

286

Распространение теоремы общественного агрегирования Харсаньи на случай неравной априорной уверенности: Andrew Critch, Nishant Desai, and Stuart Russell, «Negotiable reinforcement learning for Pareto optimal sequential decision-making», in Advances in Neural Information Processing Systems 31, ed. Samy Bengio et al. (2018).

287

Источник идеалистического утилитаризма: G. E. Moore, Ethics (Williams & Norgate, 1912).

288

Новостная статья, цитирующая приводимый Стюартом Армстронгом выразительный пример неверно ориентированной максимизации полезности: Chris Matyszczyk, «Professor warns robots could keep us in coffins on heroin drips», CNET , June 29, 2015.

289

Теория негативного утилитаризма (название позже предложено Смартом) Поппера: Karl Popper, The Open Society and Its Enemies (Routledge, 1945).

290

Опровержение негативного утилитаризма: R. Ninian Smart, «Negative utilitarianism», Mind 67 (1958): 542–43.

291

Типичный аргумент о рисках, обусловленных командой «покончить с человеческими страданиями», см. в работе: «Why do we think AI will destroy us?», Reddit, reddit.com/r/Futurology/comments/38fp6o/why_do_we_think_ai_will_destroy_us.

292

Хороший источник по стимулам-самообманам для ИИ: Ring and Orseau, «Delusion, survival, and intelligent agents».

293

О невозможности межличностного сравнения полезностей: W. Stanley Jevons, The Theory of Political Economy (Macmillan, 1871).

294

Монстр полезности появляется в кн.: Robert Nozick, Anarchy, State, and Utopia (Basic Books, 1974).

295

Например, мы можем установить полезность немедленной смерти равной 0, а максимально счастливой жизни — 1. См.: John Isbell, «Absolute games», in Contributions to the Theory of Games , vol. 4, ed. Albert Tucker and R. Duncan Luce (Princeton University Press, 1959).

296

Сверхупрощенный подход Таноса, проявившийся в политике уполовинивания населения, рассматривается в статье: Tim Harford, «Thanos shows us how not to be an economist», Financial Times , April 20, 2019. Еще до премьеры фильма защитники Таноса стали собираться на подфоруме r/thanosdidnothingwrong/. В соответствии с девизом подфорума, 350 000 из 700 000 его участников впоследствии были удалены.

297

О полезности для популяций разных размеров: Henry Sidgwick, The Methods of Ethics (Macmillan, 1874).

298

Отталкивающий вывод и другие запутанные проблемы утилитаристской мысли: Derek Parfit, Reasons and Persons (Oxford University Press, 1984).

299

Краткий обзор аксиоматических подходов к популяционной этике: Peter Eckersley, «Impossibility and uncertainty theorems in AI value alignment», in Proceedings of the AAAI Workshop on Artificial Intelligence Safety , ed. Huáscar Espinoza et al. (2019).

300

Расчеты долгосрочной экологической емкости Земли: Daniel O’Neill et al., «A good life for all within planetary boundaries», Nature Sustainability 1 (2018): 88–95.

301

Приложения нравственной неопределенности к популяционной этике: Hilary Greaves and Toby Ord, «Moral uncertainty about population axiology», Journal of Ethics and Social Philosophy 12 (2017): 135–67. Более полный анализ: Will MacAskill, Krister Bykvist, and Toby Ord, Moral Uncertainty (Oxford University Press, forthcoming).

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Совместимость. Как контролировать искусственный интеллект»

Представляем Вашему вниманию похожие книги на «Совместимость. Как контролировать искусственный интеллект» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Искусственный Интеллект RT - Заповедник мертвецов
Искусственный Интеллект RT
Отзывы о книге «Совместимость. Как контролировать искусственный интеллект»

Обсуждение, отзывы о книге «Совместимость. Как контролировать искусственный интеллект» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x