Проще говоря, технологии – не причина, по которой наш вид рано или поздно встретится с костлявой старухой, технологии – наша единственная надежда обмануть смерть, по крайней мере на время. Размышляя о гипотетических угрозах далекого будущего, мы должны уделять внимание и гипотетическим достижениям, которые помогут нам их пережить, например выращиванию еды с помощью света термоядерного синтеза или ее производству на промышленных фабриках на манер биотоплива [862] Denkenberger & Pearce 2015.
. Даже технологии не такого уж отдаленного будущего могут нас однажды спасти. Нет ничего невозможного в том, чтобы отслеживать траектории астероидов и других околоземных объектов, вычислять те из них, которые могут столкнуться с Землей, и сбивать их с курса прежде, чем они отправят нас вдогонку за динозаврами [863] Rosen 2016.
. Специалисты NASA предложили под давлением закачивать в супервулканы воду, одновременно получая геотермальную энергию и охлаждая магму, чтобы она не вырвалась на поверхность [864] D. Cox, “NASA’s Ambitious Plan to Save Earth from a Supervolcano,” BBC Future, Aug. 17, 2017, http://www.bbc.com/future/story/20170817-nasas-ambitious-plan-to-save-earth-from-a-supervolcano .
. Наши предки ничего не могли противопоставить этим смертельным угрозам; мы же с вами, благодаря технологиям, живем не в самое опасное, а в самое безопасное время в истории.
Вот почему безосновательны техно-апокалиптические заявления, будто наша цивилизация станет первой, которая сама себя уничтожит. В знаменитом сонете Перси Биши Шелли надпись на изваянии фараона Озимандии напоминает путнику, что большинство когда-либо существовавших цивилизаций исчезли с лица земли. Традиционный взгляд на историю винит в их гибели внешние события вроде эпидемий, завоеваний, землетрясений или изменения климата. Но Дэвид Дойч замечает, что эти цивилизации могли бы выстоять, если бы обладали более совершенными сельскохозяйственными, медицинскими или военными технологиями:
До того как наши предки научились получать огонь искусственным путем (и неоднократно после этого), людям приходилось умирать непосредственно от воздействия источников огня, который должен был спасать им жизнь, потому что не умели с ним обращаться. В узком смысле слова их убивала погода, но если смотреть на вещи шире – отсутствие знаний. Многие из тех сотен миллионов, кто на протяжении всей истории умер от холеры, наверняка лежали в двух шагах от очагов, на которых можно было кипятить питьевую воду и тем самым спастись; но опять же они об этом не знали. В достаточно общем смысле различие между «стихийным» бедствием и бедствием, случившимся по невежеству, носит ограниченный характер. Если перенестись в момент перед любым из стихийных бедствий, которые, как говорится, «просто случились» или уготованы нам богами, то можно увидеть множество вариантов спасения, которыми пострадавшие не смогли воспользоваться, а иногда и просто не создали их. Все эти варианты складываются в одну всеобъемлющую возможность, которую они не смогли воплотить, – это формирование научной и технологической цивилизации, подобной нашей. Это традиции критики. Это Просвещение [865] Deutsch 2011, p. 207.
[866] Пер. М. И. Талачевой.
.
~
Из всех экзистенциальных угроз, предположительно нависших над будущим человечества, выделяется разновидность проблемы 2000 года, характерная для XXI века: опасение, что нас поработит, намеренно или случайно, искусственный интеллект (ИИ), – трагедия, которую иногда называют робокалипсисом и часто иллюстрируют кадрами из фильмов про Терминатора. Как и в случае с проблемой 2000 года, некоторые умные люди воспринимают ее всерьез. Илон Маск, чья компания собирает автомобили, управляемые искусственным интеллектом, заявил, что эта технология «опаснее атомной бомбы». Стивен Хокинг, вещая через свой снабженный искусственным интеллектом синтезатор речи, предупредил, что она способна «возвестить конец рода человеческого» [867] Высказывание Маска: цит. по A. Elkus, “Don’t Fear Artificial Intelligence,” Slate, Oct. 31, 2014. Высказывание Хокинга: цит. по R. CellanJones, “Stephen Hawking Warns Artificial Intelligence Could End Mankind,” BBC News, Dec. 2, 2014, http://www.bbc.com/news/technology-30290540 .
. Но есть и другие умные люди, которые не теряют по этому поводу сна и покоя, – в их числе большинство специалистов по искусственному интеллекту и специалистов по интеллекту человека [868] В опросе сотни самых цитируемых исследователей искусственного интеллекта, проведенном в 2014 году, только 8 % высказали опасение, что ИИ высокого уровня грозит «экзистенциальной катастрофой»: Müller & Bostrom 2014. Скептически настроенные специалисты по ИИ: Paul Allen (2011), Rodney Brooks (2015), Kevin Kelly (2017), Jaron Lanier (2014), Nathan Myhrvold (2014), Ramez Naam (2010), Peter Norvig (2015), Stuart Russell (2015), and Roger Schank (2015). Скептически настроенные психологи и биологи: Roy Baumeister (2015), Dylan Evans (2015), Gary Marcus (2015), Mark Pagel (2015) и John Tooby (2015). См. также A. Elkus, “Don’t Fear Artificial Intelligence,” Slate, Oct. 31, 2014; M. Chorost, “Let Artificial Intelligence Evolve,” Slate, April 18, 2016.
.
Читать дальше
Конец ознакомительного отрывка
Купить книгу