Я не собираюсь отвечать на этот вопрос; замечу только, что такая радикальная точка зрения становится более или менее господствующей повсюду в Кремниевой долине, в сфере информационных технологий и, все в большей степени, в деловом сообществе. В несколько менее бескомпромиссном варианте она также быстро приобретает популярность и в научных кругах. За последние несколько лет почти во всех университетах окрылись хорошо финансируемые центры или институты, посвященные работе с большими данными и в то же время уделяющие должное внимание другому модному слову – междисциплинарности. Например, Оксфордский университет только что создал в новом, привлекательном, «соответствующем последнему слову техники» здании собственный Институт больших данных (Big Data Institute, BDI). Вот что было сказано по этому поводу: «Работа этого междисциплинарного исследовательского центра будет сосредоточена на анализе больших, сложных, разнородных массивов данных для исследования причин и следствий, профилактики и лечения болезней». Это, несомненно, чрезвычайно достойная задача, несмотря на отсутствие упоминаний о развитии теорий или концепций.
Противоположную точку зрения ярко выразил нобелевский лауреат, генетик Сидней Бреннер, которого я уже цитировал в главе 3 (кстати говоря, он был директором того самого знаменитого кембриджского института, основанного Максом Перуцем, о котором я говорил выше): «Биологические исследования переживают кризис… Технологии дают нам инструменты для анализа организмов на всех масштабных уровнях, но мы тонем в море данных и задыхаемся без теоретической основы, которая позволила бы осознать их. Хотя многие считают, что “чем больше, тем лучше”, история учит нас, что на самом деле “лучше меньше, да лучше”. Нам нужна теория и уверенное понимание природы изучаемых объектов, чтобы предсказывать все остальное».
Вскоре после публикации статьи Криса Андерсона компания Microsoft выпустила интереснейшую серию эссе, собранных в книге под названием «Четвертая парадигма: информационно емкие научные открытия» [183]. Они основаны на идеях Джима Грея, информатика, работавшего в Microsoft и трагически погибшего в море в 2007 г. Он видел в революции данных крупномасштабную смену парадигмы, определяющей будущее развитие науки в XXI в., которую он называл четвертой парадигмой. Первые три, по его мнению, были: 1) эмпирические наблюдения (до Галилея), 2) теории, основанные на моделях и математических формулах (после Ньютона), и 3) вычисления и компьютерное моделирование. Мне кажется, что, в отличие от Андерсона, Грей считал эту четвертую парадигму результатом интеграции первых трех, а именно объединением теории, эксперимента и моделирования, но с дополнительным акцентом на сбор и анализ данных. В этом смысле с ним трудно не согласиться, поскольку именно так наука и развивалась в течение последней пары сотен лет; разница тут в первую очередь количественная: «революция данных» открыла перед нами гораздо более широкие возможности использования и развития тех же методик, которые мы применяем уже давно. С этой точки зрения кажется, что речь должна идти не о парадигме 4.0, а о парадигме 3.1.
Но теперь на поле появился новый игрок, который многим кажется более многообещающим и, по мнению Андерсона и ему подобных, способным устранить потребность в традиционном научном методе. Речь идет о технологиях и методиках, которые называют обучением машин, искусственным интеллектом и аналитической обработкой данных . Они существуют во множестве разных вариантов, но все они основаны на идее о возможности разработки и программирования компьютеров и алгоритмов, способных развиваться и адаптироваться на основе вводимых в них данных для решения задач, формирования новых идей и формулирования предсказаний. Все они используют итерационные процедуры поиска и использования имеющихся в данных корреляций, которые не заботятся о причинах существования таких связей и неявно предполагают, что «корреляция важнее причинности». Этот подход вызывает сейчас большой интерес и уже оказывает сильное влияние на нашу жизнь. Например, он лежит в основе принципов работы поисковых систем, таких как Google, разработки стратегий инвестирования или схем работы организаций, а также работы автомобилей без водителя.
Все это возвращает нас к классическому философскому вопросу о том, до какой степени эти машины «мыслят». Что мы, собственно говоря, подразумеваем под этим словом? Стали ли они уже умнее, чем мы? Смогут ли сверхразумные роботы когда-нибудь заменить человека? Создается впечатление, что призрак таких научно-фантастических фантазий стремительно надвигается на нас. Вполне можно понять, почему Рэй Курцвейл и его единомышленники считают, что следующая смена парадигмы будет интеграцией человека с машиной или в конце концов приведет к появлению мира, в котором господствуют разумные роботы. Как я уже говорил, я отношусь к таким футурологическим прогнозам довольно скептически, хотя вопросы, которые они затрагивают, интересны, чрезвычайно сложны и требуют ответа. Но их обсуждение должно затрагивать другую смену парадигмы, порожденную надвигающейся сингулярностью конечного времени, которая связана с ускоряющимся темпом жизни и включает в себя проблему глобальной устойчивости и появления еще четырех или пяти миллиардов человек, которые вскоре окажутся на нашей планете рядом с нами.
Читать дальше
Конец ознакомительного отрывка
Купить книгу