Журнал «Юный техник» - Юный техник, 2014 № 10

Здесь есть возможность читать онлайн «Журнал «Юный техник» - Юный техник, 2014 № 10» весь текст электронной книги совершенно бесплатно (целиком полную версию без сокращений). В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Год выпуска: 2014, ISBN: 2014, Жанр: Технические науки, periodic, на русском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Юный техник, 2014 № 10: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Юный техник, 2014 № 10»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

Популярный детский и юношеский журнал.

Юный техник, 2014 № 10 — читать онлайн бесплатно полную книгу (весь текст) целиком

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Юный техник, 2014 № 10», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Таким образом, химический процесс, долгое время бывший лишь своеобразной забавой юных химиков (реакция Белоусова-Жаботинского — часто встречающаяся тема на химических олимпиадах школьников), может, наконец, получить реальное практическое применение.

ПО СЛЕДАМ СЕНСАЦИЙ

Восстание машин. Возможно ли оно?

Я слышал, будто знаменитый британский ученый Стивен Хокинг всерьез полагает, что человечеству стоит опасаться угроз со стороны искусственного интеллекта.

На чем основаны эти опасения? В чем может заключаться такая угроза?

Валерий Смирнов,Санкт-Петербург

Именно ответам на эти вопросы, по существу, и посвящена статья, написанная Стивеном Хокингом совместно с профессором компьютерных наук из Калифорнийского университета Стюартом Расселлом и профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института.

В публикации рассматриваются некоторые достижения в области искусственного интеллекта, включая самоуправляемые автомобили, голосовой помощник Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy. Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия, полагает Хокинг и его коллеги. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. «К сожалению, оно может оказаться последним, если мы не научимся избегать рисков», — предупреждают ученые.

Что же это за риски? Исследователи полагают, что машины с нечеловеческим интеллектом затем начнут самосовершенствоваться, а то и саморазмножаться.

И тогда уж ничто и никто не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, в результате которой машины не только обгонят людей в своем совершенстве, но и возьмут под свой контроль финансовые рынки, научные исследования, включая разработку оружия, недоступного нашему пониманию.

В итоге, как опасаются ученые, человечество может оказаться порабощенным компьютерной цивилизацией. Хокинг считает, что такому варианту развития событий посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

В свою очередь, исследователи из Кембриджа полагают, что апокалиптическое будущее, показанное в фантастических фильмах «Терминатор» и «Матрица», имеет шанс воплотиться в жизнь. «Восстание машин вполне возможно», — считают ученые. Они уже создали комиссию, которая должна не допустить, чтобы Землю захватили роботы.

Группа экспертов во главе с профессором философии Хью Прайсом, специалистом в области астрофизики Мартином Рисом и одним из основателей всемирно известной интернет-компании Skype Яном Таллином начали исследовать вопрос о том, насколько вероятно «тупиковое» развитие нашей цивилизации, при котором людей поработят разумные машины. Ученые основали «Центр по изучению экзистенциальных рисков» (CSER), который будет исследовать возможность создания самодостаточного искусственного интеллекта, пути развития биотехнологий. По словам сотрудников Кембриджского университета, электронный разум, подобный тому, что захватил мир в «Терминаторе», уже сегодня разрабатывается американскими военными специалистами. Исследователи считают, что нужно сделать все, чтобы порабощение человечества не могло произойти даже гипотетически.

Между тем минуло 70 лет с тех пор, как Айзек Азимов предложил свои знаменитые законы роботехники, согласно которым:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил еще один, самый важный закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».

При проектировании роботов и программного обеспечения для них специалисты должны закладывать эти законы в электронные «мозги», и все будет в порядке.

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать
Отзывы о книге «Юный техник, 2014 № 10»

Обсуждение, отзывы о книге «Юный техник, 2014 № 10» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x