Деление возможных подходов к AI на два – на top down и на bottom up оказалось воистину провидческим, как почти все, что сделал Тьюринг за свою короткую жизнь. Действительно AI в последующем развивался независимо по указанным им альтернативным направлениям. Детальнее о каждом из двух – символьном и коннекционизме, о том, как складывалась их история на протяжении восьми десятилетий, мы расскажем в этой книге. Здесь же можно ограничиться замечанием о том, что символьный подход был востребован в 60–90-е годы. Неудивительно, ведь он обещал невероятно быстрые результаты без особых научных вложений, казалось, что для создания AI достаточно написать соответствующие программы для уже существующих или проектируемых компьютеров. И напротив, развитие коннекционизма в силу целого ряда объективных и субъективных причин, прежде всего из-за отсутствия нужной теории и технологий моделирования ANN, было отложено на несколько десятилетий. Однако в XXI веке ситуация развернулась на 180 градусов, символьный подход ушел в забвение и восторжествовал коннекционизм. На данный момент практически все известные внедрения AI основываются исключительно на коннекционизме. Он стал фундаментом всей индустрии AI, созданной за последние 10 лет, а примеры сохранившихся систем на базе символьного подхода во всем мире можно пересчитать по пальцам.
В главе 4 будет описана история символьного подхода к AI, а в главе 5 коннекционистского.
Проблема души и тела (психофизиологическая проблема) и эффект AI
Остановимся на одной из причин, почему один из подходов оказался тупиковым, а у второго, во всяком случае так видится сейчас, перспективы ничем не ограничены. Создание работающих систем с AI связано с проблемой, схожей с той, которую немецкие психофизиологи обозначили в середине прошлого века, назвав ее Leib-Seele Problem или Psychophysisches Problem, в английский вошел перевод первого варианта Mind and BodyProblem, в русский же второго – Психофизиологическая проблема. Отношения между душой и телом играют центральную роль в современной медицине, психотерапии и психопатологии. Разумеется, с моделью мозга все гораздо проще, но принцип тот же, AI, как сознанию человека, нужна материальная оболочка, тело. В середине пятидесятых начались первые исследования в области символьного подхода к AI и тогда без каких-либо сомнений на роль тела назначили компьютеры, рассуждая следующим образом: мозг оперирует символами и компьютер оперирует символами, раз так, то почему бы и не вложить в него мыслительные способности (по Тьюрингу, сверху-вниз). Однако при этом не учли одной вещи, того, компьютер в том виде как он сегодня существует является программируемым устройством и инструментом для создания AI должно стать программирование. Программируемый мозг – нонсенс.
Нынешние компьютеры – прямые наследники тех, которые создавались в сороковые годы прошлого века с единственным желанием – автоматизировать трудоемкие процедуры расчетов и только, ничего иного от них и не ожидали. Но неожиданно оказалась, что путем перепрограммирования те же компьютеры можно использовать для решения множества иных задач.
Все существовавшие и существующие компьютеры строятся по одной из двух архитектур, созданных три четверти века назад. В подавляющем большинстве (99,9 %) по принстонской, которую не вполне справедливо называют фон-неймановской (ФНА). Неизмеримо меньшее число специализированных сигнальных процессоров созданы по альтернативной гарвардской архитектуре. Этими двумя архаичными на сегодняшний день решениями ограничено все разнообразие компьютерных архитектур. Их объединяет главное – программный принцип управления последовательным выполнением команд, в том и другим случае процессор отрабатывает записанную в память программу. В первом случае данные и программа хранятся в общей памяти, а во втором – раздельно. За семьдесят с лишним лет в ФНА внесены многочисленные усовершенствования, способствующие компенсации присущих ей врожденных недостатков – неспособности к распараллеливанию вычислений, ограничение пропускной способности канала процессор-память (проблема бутылочного горла) и других.
Программное управление известно с античных времен, о его использовании в автоматонах подробно рассказано в главе 3. На компьютеры его распространил Чарльз Беббидж, создав проект Аналитической машины, для этого он, с одной стороны, позаимствовал математические принципы разделения сложных расчетов на простые операции у Гаспара де Прони, а с другой, идею записи программы на перфокарты у Жозефа Жаккара, изобретателя ткацкой машины. Совмещение одного с другим позволило создать архитектуру Аналитической машины, предтечи ФНА. В компьютерах принципы программного управления Бэббиджа сохранились с небольшими модификациями, такими как условные и безусловные переходы и разного рода детали. В целом же нужно признать, что компьютер генетически непосредственно связан с простейшими автоматами. Это кажется весьма странным, но дистанция между Аналитической машиной Бэббиджа и ФНА не слишком велика.
Читать дальше