Оружие само по себе становится единственным явным актором насилия, средством которого оно является: этот кошмар уже вырисовывается на горизонте. Но перед тем, как в очередной раз провозгласить смерть субъекта, необходимо немного остановиться на этом рассуждении о вдохновлявших Адорно самолетах-призраках, которые запускал угасающий Третий рейх: требуется вся энергии субъекта, чтобы никакого субъекта больше не было.
Политическая ошибка заключается в нашей вере в то, что автоматизация сама по себе является чем-то автоматическим. Организовать свертывание политической субъективности становится основной задачей самой этой субъективности.
В этом мире доминирования, которое осуществляется путем конверсии его приказов в программы и превращения его агентов в автоматы, власть, какой бы удаленной она ни была, становится неуловимой.
Где находится субъект этой власти? Этот вопрос сегодня становится навязчивым, если мы берем за основу неолиберализм или постмодернизм. Фраза Адорно дает нам хорошую подсказку, где можно ее найти: она, возможно, везде или же активно работает над тем, чтобы ее забыли. Именно эта напряженная активность в процессе самоустранения обозначает ее точнее всего. Вся эта субъективная суета, которая требует огромных усилий и инвестиций, для того чтобы запутать следы, стереть отпечатки, ловко скрыть всякий видимый субъект действия, чтобы превратить его в чистую функциональность, в некое подобие явления природы, обладающее своего рода неотвратимостью и лишь слега подправляемое системными администраторами, которые время от времени исправляют баги, осуществляют обновление и регулируют доступ.
Министерство обороны США предполагает «постепенно уменьшать долю управления, зависящую от человеческих решений» в том, что касается управления дронами 498. Если в первое время планируется перейти к «управляемой автономии», то в долгосрочной перспективе строятся виды на автономию полную. Таким образом, человеческие акторы не будут задействованы ни внутри , ни около , они окажутся полностью вне цикла. Это перспектива «роботов, способных использовать летальную силу без контроля или вмешательства человека» 499.
Специалист по робототехнике Рональд Аткин сегодня является одним из самых активных сторонников этой «роботизированной летальной автономии» 500. Его главный аргумент также «этического» порядка: роботы-солдаты «будут потенциально способны действовать более этическим образом на поле боя по сравнению с солдатами-людьми» 501. И даже лучше: они смогут «вести себя более гуманным образом, чем человеческие существа в сложных обстоятельствах» 502.
«Лично я надеюсь, признается он, чтобы как-то оправдать свои исследования, что мы никогда не будем в них нуждаться, ни сегодня, ни завтра. Но порыв, который заставляет людей вести войну, кажется слишком ошеломляющим и неизбежным». Увы, если войны нельзя избежать, то хотя бы попробуем сделать ее более этичной, вооружившись нашими технологиями. Действительно, если нам это удастся, то «мы совершим выдающийся гуманитарный прорыв» 503. Ну еще бы…
Но почему роботы-солдаты могут «действовать на поле боя более этическим образом по сравнению с солдатами-людьми?» 504По целому ряду причин, в основном за счет своей «точности», но главным образом потому, что их можно запрограммировать для соблюдения законов.
Эти роботы будут оснащены тем, что он называет «нравственным управлением», то есть чем-то вроде «искусственной “совести”» или машинным сверх-Я 505. Летальное действие будет предлагаться другой программой, но эта программа принятия решений пропустит ее через фильтр законов войны, переведенных на язык деонтической логики, чтобы «удостовериться в том, что оно является этически допустимым действием» 506.
У этих роботов не будет ни эмоций, ни страстей, которые могут помешать им принять решение, они будут применять эти правила буквально как хладнокровные убийцы. Именно потому, что они не будут «демонстрировать ни страха, ни гнева, ни чувства мести» 507, ведь они лишены этих важнейших человеческих качеств, которые называются аффектами , эти машины, предположительно, будут человечнее человека, то есть более этичными. Для реализации этой аутентичной человечности необходимо избавиться от человеческих существ.
Ликвидировать их.
Но эти парадоксальные рассуждения кажутся абсурдными лишь на первый взгляд. Чтобы их понять, мы должны проследить, как они обыгрывают разные значения понятия «человечность», слова, которым принято обозначать как минимум две вещи: с одной стороны, человеческие существа, их сущность, с другой – норму поведения, сам факт «человечного» поведения. Смысл онтологический и смысл аксиологический. Сама возможность гуманизма заключается в этом семантическом разрыве, который, как ни странно, призывает людей быть людьми, то есть приспособить реальность определенных форм нравственного поведения к его идеалу. Но поскольку конститутивным действием философского гуманизма является установление жесткой зависимости между этими двумя смыслами, робоэтический постгуманизм принимает в расчет их несогласованность, оперируя их реальным расхождением. Если люди иногда могут действовать бесчеловечно, то почему нелюди не могут стать человечнее их, то есть лучше соответствовать нормативным принципам, определяющим, что значит поступать «человечно»? Аксиологическая человечность может стать свойством нечеловеческих акторов, ведь этих «искусственных моральных акторов» всего лишь нужно запрограммировать для следования хорошим правилам. Пока что все (практически) безупречно. Все становится куда серьезнее, когда рассматриваемое действие является человекоубийством. Сторонники летальной робоэтики по сути говорят: не важно, что теперь машины решают, убивать им людей или нет. Поскольку они убивают их человечно, то есть в соответствии с принципом международного гуманитарного права, которое регулирует применение военной силы, никаких проблем нет. Но в чем именно проблема? С точки зрения философии права можно обозначить две крайне важные и на самом деле нерешаемые проблемы.
Читать дальше
Конец ознакомительного отрывка
Купить книгу