(А около B) /\ (B около С) => (А около С),
но неограниченное применение такого правила приведет к тому, что все предметы окажутся расположенными по соседству друг с другом. Можно применить нечто вроде технической шутки:
(А (около) 1 В) /\ (В (около) 1С) => (А (около) 2С),
допустив при этом, скажем, только пять степеней для понятия «около»: около, (около) 2, .... (около) 5. Можно изобрести какие-то аналоговые величины или параметры. Но в логистической системе нельзя ограничиться применением, например, трех правил транзитивности подряд, если на то нет серьезных оснований. Я не знаю пока, как же следует разрешить эту проблему, и, по имеющимся сведениям, никто еще не предложил в этом плане чего-либо делающего ему честь. Хочу лишь отметить тот факт, что, поскольку логистический подход достаточно распространен, никто непредвзято не исследовал подобный тип процедурных ограничений.
КОМБИНАТОРНЫЕ ПРОБЛЕМЫ. Логическим системам, на мой взгляд, не удастся избежать комбинаторного взрыва в том случае, если будет найдена возможность представления более обширных знаний. Хотя время от времени мы получаем сведения об успешной работе подобных систем в ограниченных микромирах, следует иметь в виду, что для исследований по искусственному интеллекту это обычная ситуация: система высокого качества, решающая трудные головоломки, часто оказывается непригодной для работы в более крупных проблемных областях.
СОВМЕСТИМОСТЬ И ПОЛНОТА. В процессе своей умственной деятельности человек критически оценивает имеющиеся у него планы и перечни целей, пересматривая свои знания и правила их использования. Некоторые из этих действий можно непосредственно внести в саму программу доказательства теорем и использовать их для последующего самоанализа, но человек в действительности хочет представлять их себе более естественным образом, в виде свода декларативных правил. Почему же тогда ученые стремятся, чтобы именно логистические системы выполняли эту работу? Действительная причина заключается в том, что такие системы весьма просты и элегантны; если бы они еще были и эффективны, было бы просто замечательно. Чаще указывают на другую причину, неверную по своей сути, именно, что подобные системы математически строги, поскольку они обладают свойствами:
(1) полноты, т.е., «можно доказать все истинные утверждения», и
(2) совместимы, т.е. «нельзя доказать ни одно ложное утверждение».
По всей видимости, люди часто не понимают, что полнота — это достоинство не такое уж редкое. Оно является тривиальным следствием любой процедуры исчерпывающего поиска, поэтому всякая система может быть переведена в категорию «полных», если к ней подсоединить любую другую полную систему и после этого чередовать этапы вычислений. Совместимость — понятие более тонкое, оно предполагает отсутствие противоречивости в наборах аксиом. Мне кажется, что в системах искусственного интеллекта подобного требования не следует придерживаться, ибо ни одна система естественного интеллекта не является полностью совместимой. Важно то, каким образом человек разрешает парадокс или находит выход из конфликтной ситуации, каким образом человек учится на своих и чужих ошибках, как распознает и отбрасывает всевозможные несоответствия.
Подобные неправильные представления привели к тому, что теорема неполноты Гёделя стимулировала появление совершенно беспочвенных утверждений о различиях между человеком и машиной. Никто, видимо, не заметил ее более «логичной» интерпретации, именно, что стремление к совместимости налагает определенные ограничения.
Конечно, есть и будут различия между людьми (которые доказуемо несовместимы) и машинами, конструкторы которых создавали их на основе этого принципа. Но для машин вовсе не является необходимым программирование на основе только совместимых логических систем. Те же философские рассуждения, которые выше не были нами приведены, но, тем не менее, подразумевались, использовали это ненужное допущение. (Полученные не так давно результаты, показывающие совместимость современной теории множеств, рассматриваются мною не как доказательство потенциальной возможности ее использования в системах искусственного интеллекта, а, наоборот, как подтверждение ее вероятной неприменимости для наших целей.)
Когда одного известного математика предупредили, что, сделав еще один логический шаг в своем доказательстве, он придет к парадоксу, тот совершенно серьезно ответил: «А я не буду делать этот шаг». Значительная часть наших обычных (и даже математических) знаний напоминает знания людей — представителей опасных профессий, которые должны очень хорошо знать, когда и какие действия следует считать неразумными. В наших условиях нужно дать ответы на следующие вопросы: в каких случаях возможно применение тех или иных видов аппроксимаций; когда различные критерии могут предопределить получение различимых оценок; какие утверждения и какие типы ссылок допустимы и другое. Концепции, основанные на свойстве транзитивности, представляют значительный интерес и от них вовсе не следует отказываться лишь потому, что еще не найдена удовлетворительная система аксиоматизации. Подводя итоги, отметим следующее.
Читать дальше