Эктор Левек, специалист по информационным технологиям и робототехнике из Университета Торонто (University of Toronto), приводит пример простого вопроса, легко находящего ответ у людей, но над которым компьютер может задуматься надолго.
Большой шар падает на стол и пробивает его, потому что он сделан из пенопласта.
Что сделано из пенопласта – большой шар или стол?
Мы даем правильный ответ без всяких усилий, потому что понимаем, что такое пенопласт, знаем, что случается, когда мы что-то бросаем на стол, как выглядит стол и что подразумевается под словом «большой». Мы мгновенно схватываем контекст ситуации и смысл слов, которыми она описана. Компьютер, лишенный всякого понимания реального мира, вынужден считать язык данного высказывания абсолютно двусмысленным. Он ограничен своими алгоритмами. «Сведение интеллекта к статистическому анализу больших наборов данных может привести нас, – говорит Левек, – к системам, впечатляющим публику своей результативностью, но являющихся, по сути, идиотами, проявляющими незаурядные способности в какой-то узкой сфере». Компьютеры могут великолепно играть в шахматы или в «Свою игру», безошибочно распознавать лица или выполнять другие, четко очерченные ментальные задания, но они совершенно безнадежны вне границ этих заданий [46]. Точность работы компьютеров удивительна, но это всего лишь симптом узости их восприятия.
Даже в том, что касается вопросов, требующих вероятностных ответов, компьютеры не всегда оказываются на высоте. Скорость и очевидная точность их вычислений могут маскировать неполноту и погрешности обрабатываемых данных, не говоря уже о возможном несовершенстве алгоритмов обработки. Любая большая база данных содержит, наряду с надежными корреляциями, массу ложных корреляций. Несложно впасть в заблуждение из-за случайного совпадения или превратной ассоциации [47]. Более того, когда какой-то конкретный набор данных является основанием для принятия важных решений, эти сведения и их анализ становятся объектом не всегда честных манипуляций. В поисках финансовых, политических или социальных выгод люди часто будут пытаться подправить систему. Как пояснил в своей знаменитой, напечатанной в 1976 году статье Дональд Кэмпбелл: «Чем в большей мере какой-либо количественный социальный показатель используется для принятия социально значимых решений, тем в большей степени он становится объектом коррупционного давления, и тем в большей степени будет он искажать картину социальных процессов, для отслеживания которых его предполагали использовать» [48].
Погрешности в данных и алгоритмах могут сделать профессионалов, да и нас, простых смертных, жертвами наиболее злокачественной формы пристрастного отношения к данным автоматизированных систем. «Угроза заключается в том, что мы позволим себе бездумно положиться на результаты анализа, несмотря на возможность обдумать и понять, что в этих результатах что-то пропущено, – предостерегают Виктор Майер-Шенбергер и Кеннет Цукер в своей книге “Большие данные”, вышедшей в 2013 году. – Или мы можем приписать истинность данным, которые этого не заслуживают» [49]. Особая форма риска, связанного с использованием алгоритмов, вычисляющих корреляции, обусловлена тем, что они работают с данными о прошлом, чтобы предсказать будущее. В большинстве случаев поведение в будущем совпадает с нашими ожиданиями, и алгоритм работает, опираясь на уровень вероятности. Однако в тех редких случаях, когда условия отклоняются от предписанного алгоритмом образца, он может выдать абсолютно неверный прогноз. Такие случаи уже не раз приводили к катастрофам компьютеризированных хеджевых фондов и брокерских фирм. При всех своих дарованиях компьютеры до сих пор демонстрируют пугающее отсутствие здравого смысла.
Чем больше мы предаемся, по выражению ученого из корпорации Microsoft Кейт Кроуфорд, «цифровому фундаментализму» [50], тем сильнее становится искушение обесценить таланты, недоступные компьютерной имитации. Мы так сильно доверяем программным продуктам, что не придаем значения человеческой способности использовать знания, полученные из реального опыта, способные привести к оригинальным творческим решениям. Как показывают некоторые непредвиденные последствия внедрения электронного ведения документации в медицине, шаблоны и формулы неизбежно ведут к упрощенчеству и очень быстро становятся смирительной рубашкой для клинического мышления. Начиная с шестидесятых годов вермонтский врач и ученый Лоуренс Уид был горячим и красноречивым поборником использования компьютеров в медицине, так как они, по его мнению, могли помочь врачам принимать адекватные и осознанные решения [51]. Уида называют даже отцом электронного ведения медицинской документации. Однако теперь даже он предупреждает: «Нынешнее бездумное использование статистических знаний в медицине систематически вытесняет индивидуализированное знание и данные, действительно необходимые для лечения больных» [52].
Читать дальше
Конец ознакомительного отрывка
Купить книгу