В данном случае понятие информации определяется уже на уровне таких изначальных понятий философии, как материя и энергия. По мнению В.М. Глушкова, информация независима от нашего сознания. Ее объективный характер основан на объективности существования ее источника — разнообразия. Для того чтобы построить строгую теорию информации, К. Шеннону пришлось отвлечься от ее смысла. В.М. Глушков развивает этот подход, предлагая очень общее и емкое понятие информации и подчеркивая при этом ее независимость от получателя, что оставляет в стороне и смысловую сторону информации.
Очень близка к «разнообразностной» трактовке информации идея алгоритмического измерения ее количества, выдвинутая в 1965 г. А.Н. Колмогоровым. Суть ее заключается в том, что количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Так, воспроизвести последовательность букв а, а …., а можно при помощи очень простой программы. Несколько большей окажется длина программы, восстанавливающей последовательность а, в, с, а, в, с …. Длина программы при этом измеряется количеством команд (операций), позволяющих воспроизвести последовательность. Этот подход, в отличие от подхода Шеннона, не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчета, по сравнению с исходными данными. Вероятностная теория информации на этот вопрос не может дать удовлетворительного ответа.
До сих пор мы рассматривали подходы, связанные с количественным аспектом понятия информации без учета смысловой стороны информации. Эти подходы позволили привлечь к изучению информации точные математические методы. В результате были созданы всевозможные кибернетические устройства (понятие информации является центральным в кибернетике), вычислительные машины и пр. Все это стало возможным благодаря достижениям теории информации. Человек научился ее преобразовывать, кодировать и передавать на огромные расстояния с непостижимой точностью.
Классическая теория информации Шеннона, значительно дополненная и обогащенная новыми подходами, все же не может охватить всего многообразия понятия информации и, в первую очередь, ее содержательного аспекта. Теория информации К. Шеннона также не занимается определением ценности информации. Количество информации ее интересует лишь с точки зрения возможности передачи данных сообщении оптимальным образом.
В нашей стране и за рубежом ведутся интенсивные и серьезные исследования в области машинного перевода. Однако, если перевод технических текстов уже стал на сегодняшний день реальностью, то с переводом художественной литературы, несравненно более богатой смысловыми оттенками, подтекстом, образными выражениями, компьютеры справляются пока гораздо хуже.
Попытки оценить не только количественную, но и содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Исследования в этой области теснее всего связаны с семиотикой — теорией знаковых систем. Одним из важнейших свойств информации, которое мы можем наблюдать, является ее неотделимость от носителя: во всех случаях, когда мы сталкиваемся с любыми сообщениями, эти сообщения выражены некоторыми знаками, словами, языками Семиотика исследует знаки как особый вид носителей информации. При этом знаком является условное изображение элемента сообщения, словом — совокупность знаков, имеющих смысловое значение, языком — словарь и правила пользования им. Таким образом, рассуждая о количестве, содержании и ценности информации, содержащейся в сообщении, можно исходить из возможностей соответствующего анализа знаковых структур.
В качестве знаковых систем используются естественные и искусственные языки, в том числе информационные и языки программирования, различные системы сигнализации, логические, математические и химические символы. Они служат средством обмена информацией между высокоорганизованными системами (способными к обучению и самоорганизации). Примером могут быть живые организмы, машины с определенными свойствами.
Рассматривая знаковые системы, выделяют три основных аспекта их изучения: синтактику, семантику и прагматику.
Читать дальше