Чтобы отделить древние события от сегодняшней озабоченности системами закодированной информации, я буду называть первые образцами семантической [81] Семантика – раздел лингвистики, занимающийся смыслом слов и знаков.
информации, поскольку мы идентифицируем интересующую нас информацию по конкретному поводу , уточняя, о чем она (события, условия, объекты, люди, шпионы, продукция…). Существуют и другие термины, однако «семантическая информация» – мой сознательный выбор. Информация «Том высокий» сообщает нам о Томе и его росте, а информация о том, что «снег белый», – это информация о снеге и его цвете. Это разные элементы семантической информации (нельзя говорить в этом случае «биты информации», поскольку «биты», прекрасные и удобные единицы, относятся к другому, Шенноновскому смыслу термина). Еще до того как распространилась письменность, люди создали разные способы улучшения способов контроля семантической информации, используя рифмы, ритмы, музыкальные тона, чтобы закрепить важные формулировки в памяти. Мнемонические костыли помогают нам и сегодня, например «Каждый Охотник Желает Знать, Где Сидит Фазан» (порядок цветов спектра или радуги), «Медвежонок Ветчину Закусил Малиной, Юркий Суслик Утащил Ножик Перочинный» (порядок планет Солнечной системы), «Каждый Отличный Студент Должен Курить Папиросы, Ты Юра Мал, Подожди Немного» (порядок геологических эпох в истории Земли).
Шеннон абстрагировал и упростил задачу переноса семантической информации из точки А в точку В, разбив ее на две – задачу отправителя и задачу получателя (два разумных посредника, заметьте), связанных между собой каналом с предустановленным и заранее согласованным кодом, в виде алфавита или иных понятных сигналов. Канал предполагался восприимчивым к шуму (чему-то, что интерферировало с передачей, ухудшая сигнал), и задача состояла в том, чтобы добиться надежной передачи, которая была бы невосприимчивой к шуму. Некоторые способы, с помощью которых выполнялась задача, были уже известны, когда Шеннон работал над своей теорией, например ВМС США использовали код Able Baker Charlie Dog Easy Fox… для обозначения букв английского алфавита (в 1955 году он был заменен «фонетическим алфавитом НАТО Alpha Bravo Charlie Delta Echo Foxtrot ) для передачи голосовых сообщений по радио, чтобы минимизировать возникновение случайных рифм при произношении названий обычных букв (Би Си Ди Джи Пи Ти Ви Зи и так далее).
Конвертировав все коды, включая обычные слова, в бинарный код (алфавит которого состоял из всего двух символов, 0 и 1), Шеннон показал, что шум можно полностью удалить, а усилия (в виде кодирования и декодирования, снижения скорости передачи) измерить в конкретных единицах, в битах (бит – сокращение от английского названия двоичного числа [82] Двоичная система счисления – система счисления с основанием 2. Двоичная система используется практически во всех современных компьютерах и прочих вычислительных электронных устройствах.
). В точности как в детской игре «Двадцать вопросов», в которой разрешено отвечать только «да» или «нет», любая информация может быть разбита на двоичные решения, да или нет, 1 или 0, и количество подобных решений, требуемых для восстановления сообщения, может быть измерено в битах, это и будет (по Шеннону) количеством информации в сообщении. «Я думаю о числе от 0 до 8. Что это за число?» Сколько вопросов вы должны задать в игре «Двадцать вопросов», чтобы ответить на этот вопрос? Вовсе не восемь (это 0, это 1, это 2…), а всего три: это четыре и больше? Это 6 и больше? (или 2 и больше, в зависимости от первого ответа). Это 7? Да, да, да = 111 = 7 в двоичной записи. Для определения числа между 0 и 8 нужно три бита. Байт равен восьми битам, мегабайт – восьми миллионам битов, и чтобы послать монохромный точечный рисунок в виде файла объемом 2,5 мегабайта, нужно сыграть в игру «Двадцать миллионов вопросов». (Является ли первый пиксель белым?..)
Информационная теория Шеннона стала большим цивилизационным шагом вперед, поскольку семантическая информация очень важна для нас, и мы стремимся использовать ее эффективно, хранить ее без потерь, переносить ее, преобразовывать, делиться ею, скрывать ее. Информационных артефактов кругом полно – телефоны, книги, карты, руководства, – и информационная теория сама уже стала артефактом, родившимся в результате исследования свойств артефактов. То, что родилось как инженерная дисциплина, постепенно стало необходимым для работы физиков, биологов и многих других исследователей, использующих полезные качества информационных артефактов. Мы коснемся частично и возможностей применения теории информации Шеннона, однако основной нашей целью станет изучение роли семантической информации 23.
Читать дальше
Конец ознакомительного отрывка
Купить книгу