~
Мы подходим к третьей ключевой особенности – информации [43] Информация: Adriaans 2013; Dretske 1981; Gleick 2011; Hidalgo 2015.
. Информацию можно понимать как снижение энтропии; это тот компонент, который отличает упорядоченную, структурированную систему от огромного числа систем беспорядочных и бесполезных [44] Информация – это снижение энтропии, а не энтропия сама по себе: https://schneider.ncifcrf.gov/information.is.not.uncertainty.html .
. Представьте себе страницы случайных символов, набранные на пишущей машинке обезьяной, или помехи в динамике радиоприемника, настроенного на частоту между станциями, или россыпь пикселей на экране компьютера при открытии поврежденного графического файла. Каждый из этих объектов может принять триллионы различных форм, и каждая из этих форм будет такой же скучной, как предыдущая. А теперь представьте, что эти приборы контролирует некий сигнал, выстраивающий символы, звуковые волны или пиксели в последовательность, которая соответствует какому-то явлению реального мира: Декларации независимости США, первым тактам песни Hey, Jude или коту в темных очках. В таком случае мы говорим, что сигнал передает информацию о декларации, песне или коте [45] Переданная информация как знание: Adriaans 2013; Dretske 1981; Fodor 1987, 1994.
.
Объем информации, содержащейся в некой последовательности, зависит от того, насколько детально наше восприятие мира. Если бы нас волновала точная очередность символов, напечатанных обезьяной, или точная разница между двумя шумовыми всплесками, или точное расположение пикселей на конкретном дисплее с помехами, тогда мы бы сказали, что каждая из этих последовательностей несет столько же информации, сколько остальные. Интересные последовательности в таком случае несли бы даже меньше информации, потому что, когда смотришь на одну их часть (например, запятую), ты можешь угадать и другие (например, следующий за ней пробел) без помощи сигнала. Однако чаще всего мы сваливаем в одну кучу огромное большинство невнятных комбинаций, считая их одинаково скучными, и отделяем от них те немногие, которые соответствуют чему-то еще. С этой точки зрения фотография кота несет больше информации, чем россыпь пикселей, поскольку ее дурацкий смысл выделяет редкую упорядоченную комбинацию из огромного числа в равной степени неупорядоченных. Когда мы говорим, что Вселенная упорядочена, а не хаотична, мы имеем в виду, что она содержит информацию именно в таком понимании. Некоторые физики возводят информацию в ранг одной из базовых составляющих Вселенной наряду с материей и энергией [46] «Вселенная состоит из материи, энергии и информации»: Hidalgo 2015, p. ix; Lloyd 2006.
.
Информация – это именно то, что накапливается в геноме в процессе эволюции. Последовательность оснований в молекуле ДНК соответствует последовательностям аминокислот в белках, из которых состоит тело организма, и эта последовательность сложилась в процессе уменьшения энтропии предков данного организма – формирования тех маловероятных конфигураций, которые позволяли им поглощать энергию, расти и размножаться.
Кроме того, информацию на протяжении всей жизни организма собирает его нервная система. Когда ухо преобразует звуки в нервные импульсы, два этих физических процесса – вибрация воздуха и диффузия ионов – не имеют между собой ничего общего. Но, благодаря корреляции между ними, определенная активность нейронов в мозге животного содержит информацию об определенном звуке во внешнем мире. Далее информация может переходить из электрической формы в химическую и обратно, пересекая синапсы между соседними нейронами, но при всех этих физических трансформациях сама она сохраняется неизменной.
Важнейшее открытие теоретической нейробиологии XX века заключалось в том, что нейронная сеть может не только хранить информацию, но и преобразовывать ее так, что это позволяет нам объяснить интеллектуальные способности мозга. Два входных нейрона могут быть соединены с выходным нейроном таким образом, что соотношения между их импульсами будут соответствовать логическому оператору, например И, ИЛИ и НЕ, или статистическому решению, принятому с учетом значимости входных данных. Это дает нейронной сети способность к обработке информации, то есть вычислениям. При достаточно большом размере сети, построенной из таких логических и статистических контуров (а в мозге с его миллиардами нейронов есть где развернуться), мозг может вычислять сложные функции, что является первым условием для умственной деятельности. Мозг может обрабатывать получаемую им от органов чувств информацию об окружающем мире, копируя действие законов, по которым живет реальный мир, что позволяет нам выводить полезные суждения и прогнозы [47] Нейронные вычисления: Anderson 2007; Pinker 1997/2009, chap. 2.
. Внутренние образы, которые надежно коррелируют с состояниями реального мира и участвуют в формировании суждений, чаще всего позволяющих перейти от верных предположений к верным выводам, можно назвать знанием [48] Знание, информация и дедукция: Block 1986; Fodor 1987, 1994.
. Мы говорим, что человек знает, что такое дрозд, если мысль «дрозд» возникает в его сознании, когда он видит дрозда, и если он способен прийти к умозаключению, что это такая птица, которая появляется по весне и таскает червей из земли.
Читать дальше
Конец ознакомительного отрывка
Купить книгу