Теория семантической информации
Демон Максвелла получает (увеличивает) информацию о системе, равную уменьшению энтропии (или увеличению негэнтропии), и, казалось бы, отсюда информация = негэнтропия. Однако Бриллюэн различал свободную информацию (без четкого определения) и связанную, возникающую, когда возможные случаи могут быть представлены как микроинформация физической системы, и замечал, что «только связанная информация будет представляться связанной с энтропией».
В российской литературе и части зарубежной со связанной информацией Бриллюэна наиболее соотносится термин «микроинформация», отличающийся от «макроинформации» (практически всегда соответствующей общему термину «информация» в большинстве резонов его применения) тем, что не обладает свойством фиксируемости (запоминаемости). В работах Дэвида Уолперта (см. ниже) с микроинформацией может быть сопоставлена «синтаксическая информация», а с макроинформацией – «семантическая (смысловая) информация». Помимо запоминаемости вторым критерием информации в наиболее оптимальном для практического применения определении информации по Генри Кастлеру является случайность: «информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных» (Кастлер Г., 1967). Важнейший момент в данной теории информации следует из ее определения: возникновение (генерация) информации – это случайный, но запомненный выбор. Второй важный момент – это наличие ценности информации, мерилом которой служит степень ее соответствия цели системы. Она может определяться как функция, включающая отношение вероятности достижения цели (или уменьшения энергетических, временнЫх или материальных затрат, если цель безусловно достижима) после получения информации, к этой вероятности или снижению затрат без обладания этой информацией (Чернавский Д. С., 2004). До получения информации вероятность достижения цели определяется тем, какой предварительной запомненной информацией (тезаурусом) уже располагает принимающий ее элемент. Имея минимумом информации, хотя бы минимальной запомненной информацией «о самом себе», элемент располагает минимальным тезаурусом.
В новой математической теории семантической информации Дэвида Уолперта и Артемия Колчинского (Artemy Kolchinsky and David H. Wolpert, 2018) эта мысль развивается с учетом ключевого влияния окружающей среды: семантическая («макро-») информация определяется как синтаксическая («микро-») информация, которую физическая система располагает о своей окружающей среде, и которая ситуативно (casually) необходима системе, чтобы поддерживать свое существование во времени (что созвучно понятию ценности информации).
Семантическая информация поддерживает длительное существование системы за счет минимизации энтропии системы. Дэвид Уолперт разделяет два вида семантической информации: сохраненную семантическую информацию, которая основывается на обмене общей информацией между системой и окружением в некий исходный момент времени, и наблюдаемую информацию, которая основывается на переносе энтропии между системой и окружением за время от исходного до момента наблюдения. В отличие от синтаксической микроинформации семантическая информация, располагая критерием ценности, может быть ценной (положительной), малоценной или вовсе ошибочной, то есть отрицательной, наносящей урон системе, сокращающей время ее существования. Семантическая информация, в противоположность синтаксической, по Уолперту, фундаментально ассиметрична в ходе любого обмена ею. Другое ключевое понятие, вводимое Уолпертом, это понятие «автономного агента» – физическая система способна быть автономным агентом в той степени, в какой она располагает объемом семантической информации. Данной теорией предполагается, что способность быть живым – это способность быть чрезвычайно развитым автономным информационным агентом.
Квантовая теория информации
Можно обсуждать, на каком уровне организации материи вообще возникает эта способность – обладать тезаурусом / быть минимальным автономным агентом. Она, связана с возможностью объекта случайно «выбирать» из нескольких (минимум двух) устойчивых состояний.
Квантовая теория информации в версии Сета Ллойда ( Seth Lloyd , Ллойд С, 2013, Extreme Quantum Information Theory , xQIT) устанавливает, что уже каждая элементарная частица несет в себе информацию; даже исходя из принципа Паули каждая частица во Вселенной «знает», где находится другая аналогичная частица и может находиться как во многих «определенных» состояниях, так и «неопределенных» (суперпозициях). В квантовой механике, согласно xQIT , информация может возникать как бы «из ничего», что немыслимо для классической физики. Информация «из ничего», как увеличение энтропии (то есть микроинформация), возникает вследствие феномена квантовой запутанности из любого взаимодействия квантовых частиц – квантовых единиц информации (кубитов). И эта информация, вследствие дальнейшей цепи взаимодействий, имеет тенденцию к максимальному распространению в пространстве-времени, то есть обладает некоей «заразностью».
Читать дальше