Из нашей предыдущих обсуждений следует, что число 2 1000задаёт энтропию монет. Для определённых целей этот вывод вполне достаточен. Однако для установления более глубокой связи между энтропией и информацией необходимо уточнить картину, описанную выше. Энтропия системы связана с числом неразличимых перегруппировок её компонентов, но, строго говоря, не равна ему. Эта взаимосвязь выражается с помощью математической операции, называемой логарифмом ; не пугайтесь, если логарифм навевает дурные воспоминания о школьных уроках математики. В нашем примере с монетами это просто означает, что в качестве энтропии надо взять показатель полученного нами числа конфигураций, то есть энтропия определяется как 1000, а не 2 1000.
Преимущество использования логарифма в том, что он позволяет работать с более обозримыми числами, но есть и более важная причина. Представьте, что я спрашиваю вас, сколько информации вам понадобится для описания одной частной конфигурации орёл-решка в наборе из 1000 монет. Простейший ответ состоит в составлении списка — орёл, орёл, решка, орёл, решка, решка…, который описывает расположение каждой из 1000 монет. Конечно же, отвечу я, это даст мне полную информацию об этой конфигурации, но вопрос состоял не в этом. Я спрашивал, сколько информации содержится в этом списке.
Тут вы начнёте раздумывать. Чем на самом деле является информация и для чего она нужна? Вы даёте прямой и простой ответ. Информация отвечает на вопросы. Годы исследований по физике, математике и компьютерным технологиям сделали этот ответ точным. Эти исследования установили, что наиболее полезная мера содержания информации — это число различных «да или нет» вопросов, на которые у этой информации есть ответ . В примере с монетами есть 1000 таких вопросов: орёл у первого доллара? Да. Орёл для второго доллара? Да. Орёл для третьего доллара? Нет. Орёл для четвёртого доллара? Нет. И так далее. Элемент данных, который может содержать ответ на «да или нет» вопрос, называется битом — привычный для компьютерного века термин, являющийся сокращением от английского выражения binary digit, двоичный символ, означающий 0 или 1, о котором можно думать как о численном представлении ответов да или нет . Таким образом, конфигурации орёл-решка из 1000 монет содержат 1000 бит информации. Эквивалентным образом, если вы встанете на макроскопическую точку зрения Оскара и сосредоточитесь только на случайном расположении всех монет в целом, не обращая внимания на «микроскопические» детали орёл или решка, то информация, «скрытая» в этих монетах, составляет 1000 бит.
Отметим, что значение энтропии и количество скрытой информации равны. И это не случайно. Число возможных выпадений орёл-решка равно числу возможных ответов на 1000 вопросов — (да, да, нет, нет, да…) или (да, нет, да, да, нет…) или (нет, да, нет, нет, нет…) и так далее, а именно 2 1000. При определении энтропии как логарифма числа таких конфигураций — 1000 в нашем случае — энтропия равна числу «да или нет» вопросов для любой из таких последовательностей ответов.
Мы рассмотрели частный пример с 1000 монетами, но установленная связь между энтропией и информацией имеет совершенно общий характер. Микроскопические детали любой системы содержат информацию, которая скрыта только при рассмотрении макроскопических, совокупных свойств. Например, вы знаете температуру, давление и объём контейнера с паром, но известно ли вам, ударялась ли молекула H 2O о верхний правый угол этого контейнера? А может быть другая молекула только что ударилась о нижний левый край? Так же как с разбросанными монетами, энтропия системы равна числу «да или нет» вопросов, ответы на которые содержатся в её микроскопическом состоянии, и поэтому энтропия является мерой, скрытой в системе информации . [55]
Энтропия, скрытая информация и чёрные дыры
Каким образом данное выше определение энтропии и его взаимосвязь со скрытой информацией применяется к чёрным дырам? Когда Хокинг разработал детальное квантово-механическое обоснование, связывающее энтропию чёрной дыры с площадью её горизонта событий, он не только дал количественное описание исходного утверждения Бекенштейна, но также создал алгоритм для его вычисления. Возьмите горизонт событий чёрной дыры, говорит Хокинг, и разбейте его на решётку, в которой сторона каждой клетки равна одной планковской длине (10 −33сантиметра). Хокинг математически доказал, что энтропия чёрной дыры равна числу таких клеток, которым покрывается весь горизонт событий — иными словами, это площадь поверхности чёрной дыры, измеренная в планковских единицах (клетки площадью 10 −66квадратного сантиметра). На языке скрытой информации всё выглядит так, как будто каждая клетка тайным образом несёт один бит, 0 или 1, что даёт ответ на один «да или нет» вопрос, описывающий какую-то характеристику чёрной дыры на микроскопическом уровне (рис. 9.2). [56]
Читать дальше