3. И команды, и данные хранятся на одних и тех же элементах машины – т.е. информация, записанная в двоичном коде, может использоваться и в качестве указаний, и в качестве памяти для компьютера.
4. Наличие «внутренней классификации» – информация (команды и данные) разбита на единицы, каждая из которых пронумерована и доступна для извлечения в любой момент времени.
5. Команды исполняются строго последовательно – нельзя перейти к следующей команде, пока не выполнена предыдущая.
6. Алгоритм необязательно должен быть линейным – в зависимости от входных данных последовательность выполнения команд может меняться.
Фактически первый электронный цифровой компьютер был сконструирован за несколько месяцев до выхода упомянутой брошюры – в конце 1945 года. Его назвали «ENIAC» ( Electronic Numerical Integrator and Computer ).
В 1950 году при непосредственном участии фон Неймана группа метеорологов произвела на ENIAC первый успешный численный прогноз погоды. Всего на сутки, и вычисления заняли почти 24 часа, так что практическая польза от такого прогноза оказалась невелика 16 . Но лиха беда начало.
Летом 1951 году было презентовано новое устройство – IAS -машина или «машина фон Неймана» (учёный возглавлял проект). Размер памяти этого компьютера вмещал 1024 слова. Однако, «машина фон Неймана» работала в 240 раз быстрее, чем ENIAC . Эволюция современных компьютеров началась.
Архитектуру фон Неймана ещё называют «принстонской», поскольку над IAS -машиной учёный и его коллеги трудились в Институте перспективных исследований, расположенном в Принстоне.
Другая группа исследователей и конструкторов под руководством инженера Говарда Эйкена ( Howard Aiken ) работала в Гарвардском университете. Принципы организации вычислительных устройств, предложенные Эйкеном, называют «гарвардской архитектурой».
Гарвардская архитектура отличается от архитектуры фон Неймана тем, что данные и команды хранятся на разных элементах компьютера. С одной стороны, это увеличивает скорость обработки информации. С другой стороны, требуется больше деталей – резко увеличивается себестоимость устройства.
Поэтому в последующие годы возобладала более простая принстонская архитектура. Большинство современных компьютеров – потомки ENIAC , сконструированного по заветам Джона фон Неймана.
С использованием транзисторов в качестве переключателей вместо электронных ламп и электромеханических реле производство компьютеров значительно удешевилось. Начиная с 1960х гг. электронные вычислительные устройства удостоились наивысшей оценки, какую только способны дать люди вещам. Они стали массовым товаром.
Клод Шеннон и теория информации
Вернёмся немного назад во времени. За 20 лет до того, как Тьюринг придумал концепцию устройства, перерабатывающего информацию, и за 30 лет до того, как фон Нейман обосновал принципы работы этого устройства, в небольшом городке на берегу живописного озера Мичиган родился Клод Элвуд Шеннон ( Claude Elwood Shannon ).
Застенчивый и любознательный паренёк с детства любил возиться с техникой. Собирал авиамодели и модели радиоуправляемых лодок, чинил радиостанции для жителей провинциального Гейлорда.
Его совсем не занимали вопросы политики или религии. Он был одиночкой, не слишком разговорчивым даже с коллегами по научной работе. По словам жены, Шеннон «спал, когда хотел спать, и часто проводил часы за кухонным столом, обдумывая идеи». Вместе с тем, он постоянно что-то придумывал и изобретал 5.
Одним словом, Шеннон был мыслителем-универсалом, виртуозно владевшим математической теорией и применявшим её для решения разнообразных практических вопросов. Причём внешняя оценка его не волновала. Ему просто нравилось думать.
С 1940 по 1941 год Клод Шеннон работал в принстонском Институте перспективных исследований ( Institute for Advanced Study , сокр. IAS ), где встречался и беседовал с Джоном фон Нейманом. Именно он, к тому времени уже маститый профессор, посоветовал молодому аспиранту рассмотреть понятие энтропии применительно к информации.
В те годы кафедру Массачусетского технологического института ( Massachusetts Institute of Technology , сокр. MIT ) возглавлял Норберт Винер, уже снискавший в научном мире авторитет благодаря работам по теории вероятностей, статистике, теории чисел и др. Винер сформулировал понятие о новой науке, рассматривающий информационный обмен в сложных системах, – кибернетике. В 1941 году Шеннон защитил докторскую диссертацию в MIT и позже, конечно, внимательно следил за работами Винера, где рассматривались вопросы движения информации 32 .
Читать дальше