Я считаю, что рекурсивное самосовершенствование не должно быть конечной целью исследований в области искусственного интеллекта не потому, что есть риск создать недружественный ИИ, а скорее потому, что у меня есть сильное подозрение: рекурсивное самосовершенствование математически невозможно. По аналогии с так называемой проблемой остановки — определением того, завершается программа или нет, — я считаю, что есть еще не открытая мера вычислительной сложности, в соответствии с которой никакая программа не сможет написать другую, более совершенную программу (включая версии самой себя).
Написанная программа обязательно будет проще, в четком числовом выражении, чем программа, которая ее пишет. Действительно, программы могут получать из внешнего мира информацию о том, как им себя улучшить, но я утверждаю, что (а) это приведет лишь значительно менее «страшному» итеративному самосовершенствованию, а не к рекурсивному и (б) они все равно будут нести в себе внутренние самоограничения, поскольку в тот момент, когда машины станут настолько же умны, как и человечество, у них не будет больше новой информации для изучения. Я знаю, что этот аргумент, конечно, нельзя назвать железобетонным, и мне горько от того факта, что (насколько мне известно) никто не работает над тем, чтобы обнаружить подобную меру глубины или доказать, что таковой не существует. Но это только начало.
И наоборот, меня очень беспокоит другая причина, по которой я придерживаюсь мнения, что создание миньонов — естественная задача при разработке ИИ. Любая машина для творчества, касается ли это технологий, искусства — да чего угодно, разрушает границу между человеком и машиной. Мы уже испытываем сильнейшую неопределенность относительно того, какими правами обладают различные виды существ. Поскольку объективные этические суждения построены на общепринятых нормах, которые, в свою очередь, возникают при рассмотрении вопроса о том, какого отношения мы бы хотели к себе, видимо, в принципе невозможно сформировать такие суждения в отношении сущностей, которые отличаются от нас еще сильнее, чем животные друг от друга. Вот почему, как я считаю, нам не нужно ставить себя в такое положение, где нам придется пытаться это сделать. К примеру, рассмотрим право на воспроизводство в условиях ограниченности ресурсов. Экономически мотивированные компромиссные решения, похоже, работают надлежащим образом. Но как нам определить компромиссные решения для «видов» с практически неограниченным потенциалом воспроизводства?
Я утверждаю, что наличие у них здравого смысла само по себе этих проблем не порождает. Я определяю здесь здравый смысл как способность обрабатывать крайне неполную информацию для установления достаточно близких к оптимальным методов достижения конкретной цели, выбираемых из набора альтернатив, сформулированных в ходе предварительного параметрического исследования. Это явным образом исключает вариант «мышления» — поиска новых методов, находящихся за пределами предварительно составленного набора, которые могли бы оказаться эффективнее.
Следовательно, опять же для примера, если достичь цели нужно быстро и множество машин справятся быстрее, чем одна, ИИ все равно не будет рассматривать вариант создания собственной копии, если только эта опция для него не прописана как допустимая, даже если он «знает», что это хорошая идея. Поскольку допустимость определяется скорее включением в список некой возможности, а не ее исключением, риск «смещения методов», я уверен, легко устраняется. Важнее всего то, что это позволяет полностью исключить рекурсивное саморазвитие (если окажется, что оно вообще реально).
Доступность бесконечного множества способов достичь цели — хорошее рабочее определение «осознанности» этой цели. Осознанность предполагает умение обдумывать цель и способы ее достижения, а значит, учитывать, что всегда остаются нерассмотренные варианты.
Я мог бы закончить простой фразой: «Так давайте не будем создавать обладающие самосознанием машины», — но любая возможная технология, которую кто-то захочет создать, в определенный момент будет разработана, так что не все так просто. Вместо этого я скажу: давайте крепко подумаем о правах мыслящих машин, чтобы мы могли проверить наши выводы на практике задолго до появления рекурсивного самосовершенствования на машинах, которые лишь отдаленно сознают свои цели. Если, согласно моим прогнозам, все наши усилия по выработке такой этики окажутся провальными с самого начала, то, возможно, мы оставим эту идею.
Читать дальше
Конец ознакомительного отрывка
Купить книгу