Roberto Simanowski - Todesalgorithmus

Здесь есть возможность читать онлайн «Roberto Simanowski - Todesalgorithmus» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Жанр: unrecognised, на немецком языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Todesalgorithmus: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Todesalgorithmus»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

Das dystopische Versprechen der künstlichen Intelligenz ist die Heimkehr in ein Paradies, in dem unsere eigene Schöpfung unser Gott ist und uns das Erkennen und Entscheiden abnimmt.
Algorithmen beherrschen die Welt, so hört man, heute schon und morgen noch viel mehr. Sie sitzen am Steuer selbstfahrender Autos und lenken mehr und mehr gesellschaftliche Prozesse. Wie programmieren wir sie und was passiert, wenn sie sich schließlich selbst programmieren? Die Angst ist so groß wie die Hoffnung und das moralische Dilemma. Dürfen Algorithmen im Ernstfall entscheiden, wer sterben muss? Wird die künstliche Intelligenz dem Menschen den freien Willen nehmen, ihn vor sich selbst schützen und zurück ins Paradies der Entscheidungslosigkeit befördern? Dieses Buch lädt ein zu einer philosophischen Spekulation über unsere Zukunft. Es handelt von den Aporien und Paradoxien der künstlichen Intelligenz. Es vagabundiert im Denken, verbindet das scheinbar Unverbundene und sieht am Ende in den Erfindern des Silicon Valleys nicht mehr und nicht weniger als die Geschäftsführer von Hegels Weltgeist.

Todesalgorithmus — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Todesalgorithmus», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Diese Haltung erstaunt im Kernland der Pflichtenethik wohl ebenso wenig wie der Umstand, dass in den USA – wo der ehemalige Vizepräsident Dick Cheney die Folter verteidigte, um das Leben vieler zu retten – bereits rege empirische Daten zum utilitaristischen Trolley-Problem gesammelt werden. So initiierte das Massachusetts Institute of Technology 2016 eine Plattform, auf der Besucher in dreizehn Dilemma-Szenarien entscheiden können, wer im Ernstfall sterben soll. Das Media Lab des MIT nennt sein Mitmachprojekt Moral Machine und stattet es mit allen möglichen Klassifikationen aus. Man muss nicht nur wählen zwischen dem Tod eines Insassen versus fünf Fußgängern oder drei Frauen und zwei Kindern versus fünf Rentnern, sondern auch zwischen dem Tod von vier Insassen versus vier Passanten, die bei Rot die Straße überqueren. Damit geht die Verrechnungslogik über das Prinzip der Verletzungsminimierung hinaus und schließt den Verursachungsaspekt ein, der in einem weiteren Szenarium – drei Kriminelle und ein Obdachloser versus zwei Doktoren und zwei Frauen – durch den Reputationsindex ersetzt wird. Beide Perspektiven – Ansehen und Schuld – stoßen aufeinander im wohl bizarrsten Szenarium: der Wahl zwischen dem Tod zweier obdachloser Fahrzeuginsassen (sic!) und dem Tod zweier Fußgängerinnen, die bei Rot die Straße überqueren.

Die Mehrheit der über zwei Millionen Teilnehmer aus über 200 Ländern rettet erwartungsgemäß eher die Gruppe als das Individuum und eher junge als alte Menschen – und fast alle ziehen die Rettung von Menschen der Rettung von Tieren vor. Während in südlichen Ländern (Lateinamerika, Afrika) die Bevorzugung von Kindern und „higher status characters“ weit höher ausgeprägt ist als im Westen (Europa, Nordamerika), ist im „Eastern cluster“ (Südostasien, arabische Staaten) die „preference for sparing the lawful over the unlawful“ etwas stärker und die Bevorzugung von Kindern deutlich schwächer ausgeprägt als im Westen oder Süden. Die Auswertung des Experiments listet weitere kulturell und sozial bedingte Unterschiede auf: In ärmeren, politisch weniger stabilen Ländern ist man toleranter gegenüber „pedestrians who cross illegally“; in „collectivistic cultures“ ist man weniger bereit, die Älteren zugunsten der Jüngeren zu opfern. 5

Die Analysten der Ergebnisse raten, bei der Herstellung und rechtlichen Regelung künstlicher Intelligenz diese Unterschiede jeweils in Betracht zu ziehen. Zwar solle die Präferenz der Bevölkerung nicht zwingend Schiedsrichter in ethischen Fragen sein, die Bereitschaft, selbstfahrende Autos zu kaufen, hänge jedoch unmittelbar mit der Annehmbarkeit ihrer moralischen Regeln zusammen. Das klingt plausibel. Und genau hier liegt das Problem.

Die Moral Machine will menschliche Perspektiven auf moralische Entscheidungen von intelligenten Maschinen wie selbstfahrenden Autos erfassen. Sie ist damit ein weiteres Beispiel für den Trend, ethische Fragen, die durch technologische Entwicklungen entstehen, empirisch-experimentell zu klären. Das methodische Problem dieser Umfrage besteht darin, dass sie diskussionslos den utilitaristischen Ansatz favorisiert. In keinem der Szenarien gibt es die Möglichkeit der Stimmenthaltung; eine Ablehnung der Zweckethik kann empirisch nicht erfasst werden. Dass die Moral Machine sich in einen Widerspruch zu den Prinzipien der erwähnten deutschen Ethikkommission begibt, wird im Auswertungsbericht durchaus reflektiert, aber als unvermeidbar verteidigt. Wenn man der Wirtschaft Ratschläge geben will, wie sie die Algorithmen selbstfahrender Autos programmieren soll, könne man sich nicht der Entscheidung entziehen beziehungsweise der „Aufrechnung von Opfern“, wie die Ethikkommission es nennt. Und Ratschläge muss man geben, wenn man selbstfahrende Autos verkaufen will.

Dass der Rat auf Daten basiert, die quasi vor Ort erhoben wurden, ließe sich leicht verteidigen. Immerhin operiert der empirische Bottom-up-Ansatz kontextsensitiv, im Gegensatz zum prinzipiellen Top-down-Verfahren herunter vom Lehnstuhl der Philosophen und Rechtsgelehrten. Das Problem liegt allerdings tiefer. Es liegt im Pragmatismus, mit dem hier jene ethischen Prinzipien begünstigt werden, die der technische Fortschritt und das wirtschaftliche Interesse zu gebieten scheinen. Da der Todesalgorithmus nicht nicht programmiert werden kann, erweist sich die deontologische Ethik als unbrauchbar – zumindest in ihrer herkömmlichen Form. So muss man zum Konsequentialismus konvertieren, was international viel weniger Sorge bereiten dürfte als in Deutschland, ist doch die Menschenwürde, die das Grundgesetz so vehement an erste Stelle setzt, in der Menschenrechtserklärung der Vereinten Nationen nicht einmal erwähnt.

Oder man deutet die Anwendung des Konsequentialismus auf das vorliegende Dilemma deontologisch. Demzufolge wäre die Tötung eines Menschen durch den „Unfalloptimierungsalgorithmus“ insofern kein Verstoß gegen die Würde des Menschen, als der Mensch ja der unmittelbare Zweck der eingesetzten Technologie bleibt. 6Die neue Technologie zielt darauf, das Unfallrisiko zu minimieren. Die unvermeidliche Aufrechnung von potentiellen Opfern im Ernstfall stünde somit nur konkret im Widerspruch zum kantischen Instrumentalisierungsverbot. Abstrahiert vom Einzelfall erweist sie sich als die unvermeidliche Nebenwirkung der deontologischen Zwecksetzung des Menschen mit neuester Technik.

Tötungsregeln

Der Film zum vorliegenden Konflikt zwischen Technik und Moral existiert noch nicht. Denkbar ist ein Streifen, der die Eingangssequenz von Alex Proyas’ dystopischer KI-Sience Fiction I, Robot (2004) ausreizt, wo ein Roboter aus zwei ins Wasser geratenen Autos nicht das Mädchen, sondern den Detektiv Del Spooner rettet, weil die Berechnung für ihn eine größere Überlebenschance ergibt. Unser Blockbuster, nennen wir ihn einfach KI am Steuer , würde diesen Konflikt koppeln mit den Interessen eines Autoherstellers, der seine autonomen Fahrzeuge so programmiert, dass im Unfallfalle immer die Insassen gerettet werden – so jedenfalls das Gerücht, das Käufer und Bürgerrechtler im Film gleichermaßen umtreibt. Das Argument des Autoherstellers hört man auch im wahren Leben: Die Fahrzeuginsassen haben immer eine höhere Überlebenschance als die ‚ungepanzerten‘ Verkehrsteilnehmer und sind zudem immer unschuldig, weil der Unfall nicht vom Bordcomputer verursacht wird, und selbst wenn, die Insassen nicht dafür verantwortlich wären.

Während in unserem Film ein Versicherungsdetektiv namens Spooker die illegale Bevorzugung der eigenen Kunden aufzudecken versucht, gerät der verantwortliche Programmierer der Firma in einen Unfall, der auch seine neunjährige Tochter betrifft, die er von der Schule abholen will. Eine Reihe von Zufällen führt dazu, dass die Tochter plötzlich einige Blocks vor der Schule auf die Straße tritt vor das Auto des Vaters. Das Auto vollzieht eine Vollbremsung, weicht aber nicht aus, um die Kollision mit einem entgegenkommenden Lastwagen zu vermeiden. So muss der Programmierer zusehen, wie sein Auto auf seine Tochter schlittert, die ihn kurz vor dem Aufprall noch erkennt und erschrocken anlächelt. Der Film endet mit dem Bekenntnis des Autoherstellers, dass die Programmierung auf falschen Prinzipien basierte, und dem Schlussbild des Vaters, der, die tote Tochter auf den Armen, aus dem Bild läuft, dorthin, wo es eine bessere Welt gibt.

Die Vorlage dieser Fiktion entstammt durchaus der Realität. So haben in der Rettungsstrategie bei Mercedes-Benz, wie dessen Sicherheitsmanager 2016 erklärte, immer die Insassen Vorrang. 7Zum anderen findet man den Ansatz, Algorithmen nach Überlebenschancen reagieren zu lassen, auch im akademischen Diskurs, wenn, in Anlehnung an Asimovs drei Robotergesetze, folgende Grundsätze aufgestellt werden: „1. Ein automatisiertes Fahrzeug sollte nicht mit einem Fußgänger oder Radfahrer zusammenstoßen. 2. Ein automatisiertes Fahrzeug sollte nicht mit einem anderen Fahrzeug zusammenstoßen, es sei denn, das Vermeiden einer solchen Kollision steht mit dem ersten Gesetz in Konflikt. 3. Ein automatisiertes Fahrzeug sollte mit keinem Objekt in der Umgebung zusammenstoßen, es sei denn, das Vermeiden einer solchen Kollision steht mit dem ersten oder zweiten Gesetz in Konflikt.“ 8

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Todesalgorithmus»

Представляем Вашему вниманию похожие книги на «Todesalgorithmus» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Roberto Saviano - ZeroZeroZero
Roberto Saviano
Roberto Bolano - Last Evenings On Earth
Roberto Bolano
Roberto Bolano - Antwerp
Roberto Bolano
Roberto Bolaño - The Savage Detectives
Roberto Bolaño
Roberto Muñoz Bolaños - Operación Turia
Roberto Muñoz Bolaños
Roberto Dunn - Malvinas
Roberto Dunn
Roberto Badenas - Encuentros decisivos
Roberto Badenas
Roberto Simanowski - Das Virus und das Digitale
Roberto Simanowski
Roberto Gárriz - Las tetas de Perón
Roberto Gárriz
Отзывы о книге «Todesalgorithmus»

Обсуждение, отзывы о книге «Todesalgorithmus» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x