Первым «компьютером» часто называют американский ЭНИАК. В нем использовались электронные лампы, которые делали его весьма большим по размерам и требовали различных инженерных ухищрений, чтобы не ломаться слишком часто, ведь выход из строя даже одной нарушал логику работы машины. Когда нужно было задать последовательность действий, которые должен был проделать ЭНИАК, чтобы решить задачу, инженеры физически переключали соединения его частей, на что уходило очень много времени. Исходные числа для подсчетов вводились в компьютер на перфокартах. В отличие от более поздних моделей, ЭНИАК все еще оперировал числами в десятичной системе, подобно механическим счетным машинам до него.
Стоит ли опасаться восстания машин?
Сергей Мельничук инженер образовательного проекта «Корпорации Роботов»
Сегодня многие люди этим обеспокоены. Инженеры компании Google создают алгоритмы безопасного обеспечения искусственного интеллекта. Существуют даже специальные фонды, куда вкладываются большие средства для реализации программ по развитию искусственного интеллекта. Так что сейчас профессионалы делают все, чтобы свести вероятность так называемого восстания машин к нулю и предотвратить возможность возникновения проблемы.
С другой стороны, мы должны понимать, что любое действие, не предписанное определенным алгоритмом, требующее морального усилия, лежит в плоскости свободы воли, свойственной только существам разумным. Проблема восстания машин – это проблема соотношения между каузальным порядком, детерминированностью событий и свободным самоопределением. На представлениях о свободе воли построено представление о личности и ответственности. Волюнтаризм Шопенгауэра предполагает волю как «вещь в себе», недоступную для познания и не подчиняющуюся принципу причинности.
Что касается искусственного интеллекта, то так или иначе – это рациональная система, поддающаяся прогнозированию и программированию. Вследствие этого любое отклонение от детерминизма будет являться не проявлением свободы воли, а системной ошибкой. Вероятно, подобные ошибки могут понести за собой плачевные для человека последствия: технологические катастрофы, транспортные бедствия.
Однако они будут носить скорее очаговый характер. Вспомним хотя бы недавний случай с автомобилем Tesla, который, двигаясь на автопилоте, не смог отличить ехавший навстречу грузовик от окружающей среды. Мы не можем отнести подобный случай к акту проявления свободы воли. Таким образом, восстание машин будет возможно только тогда, когда они будут способны к творчеству и свободному самоопределению, что произойдет еще очень нескоро.
Возможно ли создание искусственного интеллекта?
Дмитрий Хануков аналитик, магистр в области искусственного интеллекта СПбГУ
Этот вопрос стоит рассмотреть с нескольких сторон. На данный момент нет даже точного понимания, как правильно описать, что такое искусственный интеллект, и точно нет единого мнения на этот счет. Если говорить конкретно про информационные технологии, то большинство людей считает, что машина, способная ездить без водителя по городскому трафику, останавливаясь перед пешеходами, перебегающими в неположенном месте, и тому подобное – это и есть искусственный интеллект, но это всего лишь программный алгоритм, основывающийся на большой базе знаний, GPS, изображении с камер, датчиках и других данных. Даже пылесос, который чистит дом по заданному алгоритму, называют искусственным интеллектом.
Для определения, может ли машина мыслить, Тьюринг предложил тест, который звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы – ввести человека в заблуждение, заставив сделать неверный выбор». Этот тест был пройден современным чат-ботом, который совершенно точно не является искусственным интеллектом (хотя сразу же было заявлено, что все тестирование проходило некорректно).
Для искусственного интеллекта очень важна возможность самообучения, то есть создается программный код, который может обучаться на своих ошибках или успехах.
Например, робот, который играет в настольный теннис – в данном случае программа просто записывает результаты своих действий и в следующий раз делает действие, основанное на предыдущих экспериментах, например, если мячик отбивается совсем не в ту сторону, робот отобьет его в следующий раз по-другому и сравнит эти данные, чтобы получить идеальное отбивание со временем. Но алгоритм такого робота не предполагает, что, если посадить его за автомобиль, он сможет научиться им управлять, так как его программа написана только для обучения определенным действиям.
Читать дальше
Конец ознакомительного отрывка
Купить книгу