Эта глава была короткой историей целей. Если мы быстро перемотаем нашу 13,8-миллиардолетнюю историю космоса, мы увидим несколько основных стадий развития целенаправленного поведения:
1) Вещество представляется стремящимся к максимальной диссипации;
2) Примитивная жизнь представляется стремящейся к максимальной репликации;
3) Люди не столько заинтересованы в репликации, сколько преследуют цели, связанные с получением удовольствия, удовлетворением любопытства, состраданием к ближним и другими чувствами, которые у них развились, чтобы способствовать их размножению;
4) Построены машины, помогающие человеку в достижении его человеческих целей.
Если эти машины со временем войдут в стадию интеллектуального взрыва, как завершится эта история целей? Может ли появиться новая система целей или возникнуть новые этические рамки, с которыми согласятся почти все сущности, объединенные процессом общего развития интеллекта? Другими словами, нет ли у нас своего рода этической предопределенности?
Даже поверхностное ознакомление с литературой по истории человечества может обнаружить намеки на такую конвергенцию: в книге The Better Angels of Our Nature Стивен Пинкер заявляет, что общество на протяжении тысячелетий становилось менее жестоким и более нацеленным на взаимодействие и что многие части мира прогрессируют по части принятия различий, автономии и демократии. Еще один намек на конвергенцию заключается в том, что поиск истины с помощью научного метода за последнее тысячелетие получил значительное распространение. Возможно, однако, что данные тенденции показывают конвергенцию не конечных целей, а всего лишь вспомогательных. Например, на рис. 7.2 видно, что поиск истины (более точной модели мира) – не более чем вспомогательная цель при достижении практически любой конечной цели. Также мы выше видели, как этические принципы – взаимопомощь, диверсификация и автономность – могут рассматриваться как вспомогательные цели, ибо помогают обществу функционировать более эффективно, а следовательно – выживать и достигать более основательных целей, которые у него могут быть. Кто-то может даже сказать: никаких “человеческих ценностей” и нет, а есть только “протокол о сотрудничестве”, более эффективно помогающий в достижении вспомогательной цели взаимопомощи. В том же духе, заглядывая вперед, мы можем предположить, что вспомогательные цели любой сверхразумной системы искусственного интеллекта должны включать в себя эффективный “хард”, эффективный “софт”, поиск истины и любопытство просто потому, что эти вспомогательные цели помогают в достижении любых возможных конечных целей.
Против гипотезы этической предопределенности решительно выступает Ник Бострём в своей книге Superintelligence , проводя противоположную линию и выстраивая, как он его называет, тезис ортогональности , утверждающий, что конечные цели системы могут быть независимы от ее интеллекта. По определению, интеллект – это просто способность достигать сложной цели вне зависимости от того, какова эта цель; таким образом, тезис ортогональности звучит вполне логично. В конце концов, люди могут быть умными и добрыми или умными и злыми, и ум может быть использован для совершения научных открытий, создания произведений искусства, помощи людям или планирования террористических акций {96} 96 Например, IQ многих людей в ближайшем окружении Гитлера был весьма высок: http://tinyurl.com/nurembergiq
.
Тезис ортогональности расширяет наши возможности, говоря, что основные цели жизни в нашем космосе не предопределены и что мы вольны в выборе и оформлении их. Он предполагает, что гарантированная конвергенция к единой цели обнаруживается не в будущем, а в прошлом, когда всякая жизнь возникала с единственной простой целью – заниматься репликацией. По прошествии космического времени наиболее развитые умы получили возможность освободиться от этой банальной цели и самостоятельно выбирать себе другие. Мы, люди, не полностью свободны в этом отношении, так как многие цели остаются генетически запрограммированными в нас, но искусственный интеллект может получить удовольствие абсолютного освобождения от таких первичных целей. Эта возможность бо2льшей свободы от конечных целей очевидна в сегодняшний простых и ограниченных системах с искусственным интеллектом: как я говорил ранее, единственная цель компьютера, играющего в шахматы, – выиграть, но есть такие компьютеры, цель которых – проигрывать в шахматы, и они участвуют в соревнованиях по игре в поддавки, где их цель – вынуждать противника атаковать. Возможно, эта свобода от предубеждений эволюции может сделать системы с искусственным интеллектом более этичными, чем люди, в некотором очень глубоком смысле: философы-моралисты, такие как Питер Сингер, утверждают, что многие люди ведут себя неэтично по эволюционным причинам – например, проявляя дискриминацию по отношению к отличным от людей животным.
Читать дальше
Конец ознакомительного отрывка
Купить книгу