То, что Translate делает с иностранными языками, Google намеревается проделать практически со всем остальным. Соучредитель компании Сергей Брин выразил интерес к проработке генетических данных. Сервис Google Voice накапливает миллионы минут записей человеческой речи, которые инженеры надеются использовать при создании нового поколения программ для распознавания речи. Сервис Google Research собрал большую часть научных статей. И, естественно, пользователи вливают в него миллиарды поисковых запросов каждый день; это еще одна богатая жила культурной информации. Если бы у вас был секретный план-высосать данные всей цивилизации и создать с их помощью искусственный интеллект, — лучшего и пожелать нельзя.
Становясь все более изощренным, протомозг Google откроет новые, совершенно замечательные возможности. Ученые из Индонезии смогут сразу пользоваться новейшими докладами из Стэнфорда (и наоборот), не дожидаясь, пока их кто-то переведет. Не исключено, что через несколько лет мы сможем говорить с носителем другого языка с автоматическим переводом; это откроет новые каналы межкультурной коммуникации и понимания.
Но чем «интеллектуальнее» окажутся эти системы, тем труднее будет их контролировать и понимать. Не совсем верно утверждение, будто они живут своей собственной жизнью, — все-таки это программы. Но они достигают такого уровня сложности, при котором даже программисты не могут в полной мере объяснить выдаваемый результат.
Это уже касается и поискового алгоритма Google. Даже для его создателей его работа оказывается в некотором роде таинственной. «Если бы они и раскрыли правила работы механизма, — говорит эксперт по поиску Дэнни Салливан, — вы бы все равно ничего не поняли. Даже если Google назовет все 200 сигналов, которые использует, и раскроет весь код, вы не поймете, что с ним делать» [401] Из интервью автора, 10 сентября, 2010.
. Главный поисковый механизм Google — это сотни тысяч строк программного кода. По словам одного сотрудника Google, который общался с разработчиками поисковой системы, «команда подправляет и настраивает код; они на самом деле не знают, что именно работает и почему, они просто смотрят на результат».
Google обещает не перегибать палку в пользу своих продуктов. Но чем сложнее и «умнее» становится система, тем сложнее понять, так ли это. Указать, где именно возникают предубеждения и ошибки в человеческом мозге, трудно или даже невозможно: слишком много там нейронов и связей, чтобы свести все к одному дающему сбой узлу или кусочку ткани. В интеллектуальной системе вроде Google эта непрозрачность может создать реальные проблемы — как до сих пор не получившее объяснения техническое «падение» бирж 6 мая 2010 года, вызвавшее обрушение индекса Доу-Джонса на 1000 пунктов за несколько минут [402] Graham Bowley. Stock Swing Still Baffles, with an Ominous Tone. New York Times, August 22, 2010, http://www.nytimes.com/2010/08/23/business/23flash.html.
.
В одной своей провокационной статье главный редактор Wired Крис Андерсон утверждал, что большие базы данных сводят на нет потребность в научных теориях [403] Chris Anderson. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired, June 23, 2008, http://www.wired.com/science/discoveries/magazine/16-07/pb_theory.
. Зачем тратить время на формулировку гипотез на человеческом языке, если можно быстро проанализировать триллионы битов данных, выделить кластеры и установить все корреляции? Он цитирует директора по исследованиям Google Питера Норвига: «Все модели ошибаются, и все чаще вы можете добиться успеха и без них». Много чего можно сказать в оправдание этого подхода, но стоит помнить и о его оборотной стороне: если машины и могут увидеть результат, не имея моделей, то люди ничего не смогут без них понять. В попытках сделать управляющие нашей жизнью процессы понятными для людей есть ценность.
Изобретатель суперкомпьютеров Дэнни Хиллис как-то сказал, что величайшее достижение человеческой технологии — это инструменты, позволяющие нам создать больше, чем мы понимаем [404] Jennifer Riskin. Genesis Redux: Essays in the History and Philosophy of Artificial Life. Chicago: University of Chicago Press, 2007, 200.
. Верно, но это же и причина наших самых страшных бедствий. Чем больше программы, управляющие персонализацией, похожи на сложный процесс человеческого познания, тем тяжелее понять, почему или как они принимают свои решения. Простые правила, закрывающие доступ к чему-то людям определенной группы или класса, нетрудно обнаружить, но, когда то же самое действие оказывается результатом бурлящей массы корреляций в глобальном суперкомпьютере, все становится куда хитрее. А в итоге сложно призвать эти системы и обслуживающие их компании к ответственности за их действия.
Читать дальше