Вскоре Грубер осознал, что ему интересно не улучшать экспертные системы, а создавать инструменты, облегчающие другим разработку экспертных систем. Потом это назовут «проблемой накопления знаний». В диссертации он утверждал, что для создания эффективной экспертной системы надо моделировать не знания, а стратегию, т. е. понимание того, что делать дальше. В то время экспертные системы постоянно зависали, создавались вручную и требовали участия специалистов для компилирования знаний. Его цель состояла в автоматизации приобретения этого неуловимого «стратегического знания».
Во время учебы в аспирантуре подход Грубера не выходил за рамки существующей в сообществе искусственного интеллекта концепции: сначала он определял искусственный интеллект традиционно, как понимание принципов функционирования интеллекта и выполнение задач на уровне человека. Со временем его точка зрения изменилась – необходимо не просто копировать интеллект человека, а стремиться к его усилению . Он не встречался с Энгельбартом и не был знаком с его идеями, но основным направлением исследований для него стало использование компьютеров не для копирования и замены людей, а для расширения их возможностей.
Еще во время работы над диссертацией Грубер решил перебраться на Западное побережье. Стэнфорд тогда был уже известным центром исследований искусственного интеллекта, и там работал Эд Фейгенбаум, восходящая звезда этой сферы. Он инициировал проект по созданию крупнейшей в мире экспертной системы по «техническим знаниям», знаниям о том, как разрабатываются и производятся такие вещи, как ракеты и реактивные двигатели. Консультант Грубера Пол Коэн представил его Фейгенбауму, который вежливо сказал, что его лаборатория работает на пожертвования и у него нет вакансий для новых сотрудников.
«А что, если я сам достану деньги?» – спросил Грубер.
«Принесете свои деньги?!»
Фейгенбаум не возражал, и Грубер получил финансирование от нескольких компаний, которые он консультировал. В скором времени он руководил проектом Фейгенбаума в области инженерии знаний. Вот так в 1989 г. Грубер оказался в Стэнфордском университете во время взрывного распространения персональных компьютеров и второй зимы искусственного интеллекта. В Стэнфорде Грубер был изолирован от коммерческой гонки. Начав работать в проекте Фейгенбаума, он сразу столкнулся с проблемой получения знаний, необходимых для моделирования работы эксперта. Именно на ней он споткнулся во время работы над диссертацией. Стало также понятно, что для перехода от «строительства» к «производству» систем знаний разработчикам нужны стандартные блоки. Грубер включился в стандартизацию языков и категорий, используемых при разработке искусственного интеллекта. Язык должен быть точным, если разработчики хотят создавать системы, в которых общается множество людей и программ. Модули не смогут работать без стандартизированных определений. Исследователи искусственного интеллекта заимствовали философский термин «онтология» и стали применять его для обозначения набора понятий – событий, объектов, взаимосвязей, которые составляют знания в той или иной области. В соответствии с определением Грубера онтология была «соглашением», общественным договором людей, заинтересованных в обмене информацией или ведении коммерции.
Это была технология, которая идеально сочеталась с новым тогда интернетом. Совершенно неожиданно бессвязный мир множества языков и компьютерных протоколов превратился в электронную Вавилонскую башню. Всемирная паутина предложила универсальный механизм, позволявший легко находить документы через интернет. В основе сети лежала давняя работа Дуга Энгельбарта и Теда Нельсона, которые независимо друг от друга выдвинули идею гипертекстовых ссылок, облегчавших доступ к хранящейся в компьютерных сетях информации. В 1990-х гг. сеть быстро стала средой соединения любого с чем угодно, предоставляя подобный Lego способ связи информации, компьютеров и людей.
Онтология предложила более эффективный способ обмена любыми видами информации, соединив мощь глобальной цифровой библиотеки с возможностью маркировки информационных «объектов». Это позволяло включить семантику, или смысл, в обмен электронной информацией и фактически сделать шаг в направлении искусственного интеллекта. Первоначально онтологиями занималась маленькая группка в сообществе искусственного интеллекта. Грубер одним из первых применил инженерные решения к созданию онтологий. Это вовлекало его в совместную работу с целым рядом программистов, которые могли находиться как в кампусе, так и на другом конце света. Он познакомился с ученым-компьютерщиком Джеем «Марти» Тененбаумом, который ранее руководил исследованиями в области искусственного интеллекта в SRI International, а в тот момент возглавлял одну из первых лабораторий искусственного интеллекта в Кремниевой долине, созданной французским гигантом в области нефтеразведки Schlumberger. Тененбаум сразу разглядел будущее электронной коммерции, предшествовавшей Всемирной паутине. В 1992 г. он основал одну из первых компаний «электронной торговли» Enterprise Integration Technologies (EIT), тогда такая идея была еще мало кому знакомой.
Читать дальше
Конец ознакомительного отрывка
Купить книгу