Аналогична и точка зрения чл.-корр. АН УР А. Ивахненко: «Создание дешевых микроминиатюрных моделей нейронов и разработка надежных и простых способов „организации“ огромного числа таких моделей в стройные системы могут привести к созданию устройств, подобных нашему мозгу. Естественно, что в этом случае искусственно созданные разумные существа не будут подходить под определение жизни „как формы существования белковых тел“, хотя, конечно, приобретут все качества тех живых созданий, которые мы наблюдаем сегодня. Видимо, проявление жизни не обязательно связано с белковыми веществами, а создание искусственных разумных существ в принципе может быть осуществлено» (48,32).
6.3.2. Что такое «информация»?
Развитие кибернетики стимулировало обсуждение общей методологической проблемы о природе информации и связи ее с физическим понятием энтропии. Что же такое информация? Обратимся к толковому словарю: «В понятии „информация“ следует различать два аспекта. Во-первых, информация представляет собой меру организации системы. Математическое выражение для информации тождественно выражению для энтропии, взятой с обратным знаком. Как энтропия системы выражает степень ее неупорядоченности, так информация дает меру ее организации. Так понятая информация составляет внутреннее достояние системы, процесса самих по себе и может быть названа структурной информацией . Во-вторых, от структурной информации следует отличать информацию, всегда связанную с отношением двух процессов. Теория информации обычно имеет дело именно с относительной информацией , которая тесно связана с отражением. Если в предмете происходят изменения, отражающие воздействие другого предмета, то можно сказать, что первый предмет становится носителем информации о втором предмете. В кибернетических системах изменения в некотором предмете, вызванные воздействием другого предмета, являются не просто некоторыми характеристиками первого, а становятся фактом функционирования кибернетической системы именно в качестве носителя информации о втором предмете. Относительная информация из потенциальной , какой она является в докибернетических системах (системах неживой природы, не связанных с управлением), превращается здесь в актуальную информацию , то есть отражение, пассивное в докибернетических системах, становится активным отраженном. С этой точки зрения мозг человека представляет собой исключительно сложную систему, хранящую и перерабатывающую поступающую из внешнего мира относительную актуальную информацию . Свойство мозга отражать и познавать внешний мир предстает как звено в развитии процессов, связанных с передачей и переработкой информации» (13,172).
«Поскольку все предметы и процессы окружающего нас мира так или иначе взаимосвязаны, между ними неизбежно происходит обмен не только веществом и энергией, но и информацией. Только благодаря непрерывному обмену информацией между отдельными частями системы может осуществляться их организованное взаимодействие. Циркуляция информации в системе, к какой бы категории она ни относилась (машины, организм, общество), есть самый существенный, по мнению академика П.К. Анохина, фактор в организации целостной системы» (49,51).
«В информации находят отражение особенности организации взаимодействующих объектов: более организованные объекты способны извлекать из окружающей среды большую информацию, чем менее организованные, одновременно они сами служат источником большей информации. При этом не следует забывать, что каждая система может быть охарактеризована бесконечным количеством свойств, а поэтому бесконечно и количество информации, которое в принципе может быть из нее извлечено. Таким образом, информационная ценность системы зависит не от количества вообще заключенной в ней информации (оно бесконечно), а от того, кто и как эту информацию использует. Это создает большие трудности для измерения информации, и к настоящему времени разработана лишь формальная математическая теория передачи количества информации по каналам связи. Она исходит из представления об информации как о степени снятой неопределенности, которую можно установить, например, выбором одного из двух решений» (49,51).
«Энтропийная основа информации была ясна специалистам еще до возникновения теории информации, историю которой принято обычно отсчитывать со дня выхода в свет в 1949 году труда американского математика и инженера Клода Шеннона „Математическая теория связи“. Поскольку информацию относят к исследуемой системе, считая ее функцией состояния последней, увеличение данных о системе означает уменьшение ее неопределенности. Последнее же наводит на мысль о связи информации с вероятностью состояния системы, а следовательно, и с энтропией» (49,52).
Читать дальше