1 ...8 9 10 12 13 14 ...22
В чем новизна очередной волны AI, что делает ее отличной от предшествующих, и не ждет ли ее такая же печальная судьба? Для этого сравним их исходные позиции. Напомним, авторы первых двух волн шли по пути, названному Тьюрингом «сверху-вниз» в сочетании с действующей по сей день двухзвенной компьютерной парадигмой, стоящей на двух китах: универсальное аппаратное обеспечение и программное обеспечение, служащее для решении конкретной задачи. В рамках этой парадигмы решение любой задачи, какой бы сложной она ни была, сводится написанию программы для компьютера, главное, чтобы он обладал необходимой производительностью. При этом упускались из виду ограничения этой парадигмы – программируемый компьютер по природе своей не может делать ничего помимо того, что в него вложил человек. Следовательно, нет такого момента, где бы он проявить свой собственный тот самый искусственный интеллект и породить что-то «от себя». Он действует строго по программе, даже при выполнении таких, казалось бы, сложных действий, как доказательство теорем, написание музыки или игра в шахматы.
Качественное отличие третьей волны от первых двух в том, что она реализует схему «снизу-вверх» по Тьюрингу, в ее основе лежит коннекционистский подход, альтернативный символьному. В отличие от процессора нейронная сеть не может быть запрограммирована, но ее можно «обучить» тем или иным образом, после чего она способна моделировать простейшие процессы, происходящие в мозге. На данный момент многообразие методов обучения, сводится к предъявлению нейронной сети большого объема данных с тем, чтобы она смогла настроиться на них и находить решения. По большей части все, что называют AI-приложениями третьей волны ограничено компьютерным зрением (Computer Vision, CV) и обработкой текста на естественном (Natural Language Processing). В отличие от первых двух волн эти приложения относятся не просто к просто узкому или слабому AI (Narrow, Weak AI), а являются сугубо специализированным AI-решениями, которые называют AI, скорее, как дань традиции.
То, что многочисленные рассуждения о возможностях AI на практике пока свелись к сугубо специализированным решениям, имеет вполне понятное объяснение. Возможности моделирования средствами искусственных нейронных сетей ограничены существующими компьютерными технологиями, для сравнения даже самые мощные GPU кластеры, совершенно ошибочно называемые суперкомпьютерами (компьютеры универсальны, а GPU-кластеры специализированы), насчитывают десятки тысяч, максимум сотни тысяч ядер. При этом мозг таракана состоит из 1 миллиона нейронов, лягушки – 16 миллионов. У более сложных существ мозг насчитывает миллиарды нейронов, что касается человека, то в его мозге примерно 85 миллиардов. На сотни тысяч ядер кластеры потребляют мегаватты энергии, а человеческий мозг – 20 ватт. Каким же надо быть безудержным оптимистом, чтобы говорить о реальной возможности сильного AI, превосходящего возможности человека? А ведь находятся!
До того, когда AI обретет потенциал, хотя бы как-то сопоставимый с самым примитивным живым мозгом еще очень далеко, на нынешнем уровне развития электроники просто не о чем говорить. Поэтому схема работы современной обучаемой AI-системы на нейронных сетях в некотором роде искусственна, в отличие от мозга даже простейших. Она разделена на два этапа, первый – training, как следует из названия на нем тренирует или обучает искусственную нейронную сеть, являющуюся грубой моделью мозга, а на втором обученная нейронная сеть переносится в другую сеть, этот процесс называется inference, что можно перевести логическим выводом иди умозаключением. В то же время мозг простейшего живого совмещает training с inference.
Даже при такой упрощенной схеме реализации AI классические компьютеры, построенные по ФНА с ограниченным количеством центральных процессоров (Central Processing Units, CPU) с задачей training не справляются. Фундаментальная причина заключается в том, что они строятся на процессорах, состоящих из ядер типа SISD (Single Instruction, Single data), то есть задуманы для обработки одного потока данных одним потоком инструкций, для распараллеливания число ядер может достигать нескольких десятков. Даже собранные вместе десятки мощных процессоров оказывается неспособными к моделированию работы мозга нейронной сетью с тысячами узлов, требуемой при решении задач CV и NLP. Временный выход из положения совершенно случайно нашелся в виде Graphics Processing Units (GPU), эти созданные для работы с графикой компьютерных игр процессоры относятся к типу SIMD (Single Instruction, Multiple Data), они состоят из тысяч небольших ядер, на них проще воспроизвести нейросеть и специализированный компьютер будет обладать большей производительностью. Сегодня большая часть задач training решается на GPU. Для inference обученная сеть чаще всего переносится на CPU или GPU, а также на программируемых матрицах (Field Programmable Gate Array, FPGA).
Читать дальше