И вот наш ребенок, который 10 лет назад мог только кушать, какать и кричать (не обязательно в такой последовательности), уже постоянно задает вопросы на вполне понятном вам языке, постоянно обогащает свою базу знаний, систему ценностей (хорошо/плохо), словарный запас, и… его уже не остановить! И все потому, что ему не просто совали записки с иероглифами под дверь, но одновременно давали тысячи пояснений к каждой из них, и все были детальными и связными. Мое мнение: человеческое сознание, безусловно, не чета современным нейронным сетям, но тем не менее оно – результат обучения нейронной сети нервной системы на входящих данных с глубокой разметкой и интерполяции уже полученных данных, не более. В каком-то смысле мы тоже машины. Просто, если вернуться к примеру с «китайской комнатой», детей мы учим, не просто просовывая иероглифы под дверь; мы даем им детальные описания, картинки, звуки, сладости (когда информацию надо закрепить), включаем в комнате ТВ-панель со всеми возможными знаниями и делаем еще тысячи вещей, чтобы ребенок учился быстрее. Если мы будем так же поступать с машинным сознанием, результат тоже изменится – ИИ начнет учиться и адаптироваться. С точки зрения описываемого подхода к сути жизни и ее разновидностей человек – это просто очень совершенная машина с конечным сроком годности.
Современный ИИ, безусловно, несовершенен с точки зрения человеческой нервной системы, но, в отличие от нас, срок годности машинного интеллекта неограничен. Рано или поздно при правильном обучении (прогрессирующая методика, не статика) и усовершенствовании технической базы, а конкретно парадигм программирования, квантовых компьютеров, серверов, способных обслуживать многоуровневые нейронные сети без расходования энергии в масштабах небольшой страны, как это делают Google, Apple, Facebook, IBM, Amazon сегодня, машины нас догонят. Так же, как нас догоняют собственные дети, а иногда (как, например, в случае с Эйнштейном и Ньютоном) еще и обгоняют. И произойти это может совершенно обыденно и в то же время неожиданно для человека, как в рассказе Клиффорда Саймака «Театр теней» [6] Саймак К. Театр теней. – М.: Эксмо, 2008.
.
Наконец, третья проблема противников возможности AGI, считающих этот тип ИИ невозможным, а саму мысль о нем абсурдной, в том, что в научном сообществе есть группа авторитетных экспертов с полярным мнением. То есть проблема скептиков и критиков AGI в том, что, какими бы умными они ни были, им придется считаться с не менее умными оппонентами. Значимость противодействия в научном сообществе, согласующегося с экспериментальными данными (пример: победа ИИ над человеком при игре в го, как и способность отличать кошек и собак на фото, считалась невозможной, однако практика показывает, что это не так), не стоит недооценивать, ибо отсутствие единства по вопросу безопасности технологии как минимум косвенно говорит о ее небезопасности. Еще на этапе подготовки к публикации работа Джона Серла вызвала критику со стороны 27 исследователей, чьи комментарии были также приведены в том же номере журнала. Речь не о постах в соцсетях, а о серьезных и аргументированных возражениях представителей научного сообщества. Сейчас таких работ более 950. То есть постулат «умные машины невозможны» разделяют не все эксперты. Возможность развития ИИ до уровня AGI и далее, до уровня ASI, полагал вполне вероятной, например, Стивен Хокинг, многократно предупреждавший об опасности и реальности ASI, а в интервью BBC в 2014 году он и вовсе сказал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы» [7] https://www.bbc.com/russian/science/2014/12/141202_hawking_ai_danger .
. Илон Маск много лет говорил об опасностях AGI и ASI, несмотря на регулярный троллинг в свой адрес. В интервью Джо Рогану он хорошо разъяснил свою позицию: «Мы просто загрузчик для ИИ – мы прокладываем ему дорогу… если принять весь интеллект за 100 %, сейчас количество искусственного интеллекта незначительно по сравнению с человеческим, но доля искусственного интеллекта растет. Скоро в общем объеме, мы, люди, будем составлять крайне незначительную часть» [8] https://www.youtube.com/watch?v=Ra3fv8gl6NE .
. Я отношу себя к этой группе и разделяю опасения и Хокинга, и Маска, а сам факт появления ASI считаю исключительно вопросом времени – история полна примеров того, как жестоко ошибались даже великие люди в оценке перспектив того или иного направления. Великий британский физик Эрнест Резерфорд в сентябре 1933-го на заседании Британской ассоциации развития науки заявил: «Всякий, кто видит в превращении атома источник энергии, болтает чепуху», но не прошло и шести лет с момента его выступления, как Отто Ган и Фриц Штрассман открыли деление ядер урана, а еще через шесть лет на свет появилась атомная бомба, положив тем самым начало новой эпохе в истории человечества.
Читать дальше