Wenn die Recherche eines Polizisten, eine Meldung bei der Polizei oder der Tipp eines Hinweisgebers als Verdachtsmoment für solche Maßnahmen ausreichen, warum soll dann nicht auch eine zu 95% korrekte Computerprognose so ein begründeter Verdacht sein? Im Kern ist eine Big Data-Analyse ja auch nichts anderes als das, was die Polizei heute schon tut. Man sucht Informationen, kombiniert diese, vergleicht sie mit Erfahrungswerten und zieht seine Schlüsse in vielen Fällen auch im Hinblick auf zukünftige Entwicklungen. Der Unterschied ist nur, dass man das mit Hilfe der Technologie noch viel umfangreicher, genauer und flächendeckender machen kann. Ein permanentes Analysesystem könnte also eine richtiggehende Verdachts-Fabrik werden und permanent Tipps über Aktuelles und Zukünftiges absondern. Der Überwachungsdruck würde damit um ein Vielfaches steigen, die Aufklärungsraten aber eventuell auch.
Was wir heute schon sehen, sind erste Ansätze einer solchen Entwicklung in einzelnen Bereichen, oder zumindest, dass die Technologie dafür Einzug hält. Wenn es aber billig genug ist, betrifft die digitale Glaskugel dann nicht mehr nur potenzielle Straftäter, Häftlinge oder Ihre Zahlungsmoral, sondern einen Großteil Ihres täglichen Lebens. Sie werden klassifiziert und abgestempelt, bevor Sie selbst noch eine Entscheidung getroffen haben. Alles andere wäre auch unlogisch. Ein Bauer wartet auch nicht, bis es wirklich regnet und gibt dem Wetter damit eine zweite Chance, wenn der Wetterbericht eindeutig und üblicherweise korrekt ist. Warum sollten Unternehmen oder der Staat Ihnen gegenüber anders handeln?
Auf einer moralischen Ebene sieht es aber ganz anders aus: Ihr freier Wille wird von diesen Prognosen einfach negiert. Der freie Wille, die Unberechenbarkeit des Menschen ist nach dieser Logik nur eine Fehlerquote. Der Mensch ist in einer solchen Zukunft generell ein berechenbares Ding und kein freies Wesen mehr.
Das ist natürlich ein ethisch und philosophisch höchst problematisches Minenfeld: Wie frei sind Ihre Entscheidungen überhaupt? Hat der Mensch eigentlich einen wirklich freien Willen, so wie wir uns das landläufig vorstellen? Sind wir nicht alle irgendwie Sklaven von Logik, berechenbaren biologischen Abläufen in unserem Gehirn, unserer Erziehung oder Sozialisation? Bildet eine digitale Prognose dann nur unsere freien Gedanken ab oder unsere inneren Zwänge?
Wie viel Macht haben Einrichtungen und Experten, die das berechnen können? Sollen Private das überhaupt dürfen? Soll der Staat das dürfen? Wer kontrolliert das? Wollen wir, dass irgendjemand so viel Macht hat? Wollen wir, dass jemand in unser Hirn blickt und berechnen kann, was darin vermutlich zukünftig passieren wird?
Was passiert, wenn der Algorithmus falsch liegt? Wer haftet für eine Fehlprognose? Wie kann eine Fehlprognose überhaupt bewiesen werden, wenn schon wegen der Prognose eine mögliche Tat, ein Vertrag oder ein Kredit nie zustande kommt? Trifft dann nicht der Algorithmus schon vorab eine Entscheidung, die im Einzelfall faktisch nicht mehr als die falsche enttarnt werden kann?
Konkret bei Straftaten: Wenn ein Computer vorab mit hoher Wahrscheinlichkeit berechnen kann, dass jemand eine Straftat begehen wird, müssten wir dann nicht schon aus moralischen Gründen präventiv eingreifen und die Tat verhindern? Hat der Täter dann aber noch eine persönliche Schuld, wenn wir doch schon vorab berechnen konnten, dass er sich so entscheidet und insofern die Entscheidung gar nicht frei, sondern irgendwie vorgezeichnet war? Würde ein Eingriff nicht die berechnete Zukunft verändern und damit die Prognose irrelevant werden lassen? Ist ein Täter nicht genauso schuldig, wenn er nur versucht, eine Tat zu begehen, aber durch einen Eingriff von außen abgehalten wurde? Muss man diese Täter dann wegen der versuchten Tatbegehung einsperren?
Was ist gleichzeitig mit den braven Bürgern? Wenn ein Verbrechen zu 99% aufgedeckt oder verhindert wird, dann wäre es einfach nur noch dumm, ein solches zu begehen. Wenn Sie in einer solchen Welt dann vor der Entscheidung zwischen einem richtigen und einem verwerflichen Verhalten stehen, sind Sie de facto gezwungen, richtig zu handeln. Vernichten wir damit nicht auch die Möglichkeit, zwischen Gut und Böse frei zu entscheiden und damit unsere persönliche Verantwortung? Wie kann ich mich noch aus Überzeugung ethisch korrekt verhalten, wenn ich de facto keine andere Möglichkeit habe? Verkümmert unsere Ethik dann mangels eines praktischen Anwendungsbereichs? Wo ist die Balance zwischen einer hohen Aufklärungsquote und der Freiheit, sich zwischen Gut und Böse zu entscheiden? Ist das Problem der Kriminalität wirklich gelöst, wenn man sie einfach unterdrückt?
Begreifen wir uns in einer Welt, in der die Analysen und Prognosen unseres Verhaltens überhand nehmen, überhaupt noch als Individuum oder nur noch als Teil einer berechenbaren Masse, ohne Anspruch auf relevante individuelle Abweichungen? Machen wir uns in einem solchen System nicht zu einem total willenlosen und berechenbaren Objekt? Ist das alles noch ethisch tragbar und mit der Würde des einzelnen Menschen vereinbar?
Fühlen Sie sich hier etwas wie bei den theoretischen Fragen aus diversen fiktionalen Filmen? Ja? Ich mich auch! Aber genau diese Fragen, und viele andere mehr, diskutieren Experten schon heute ganz ernsthaft. So extrem abgehoben sind diese Überlegungen auch nicht, denn viele der aktuellen Entwicklungen führen genau in diese Zukunft. Viele Elemente dieser Zukunft existieren heute schon und werden in Teilen auch bereits eingesetzt. Diese technische Entwicklung lässt sich auch mit einer gewissen Sicherheit fortschreiben. Die Grenze wird daher keine technische, sondern maximal eine gesellschaftspolitische sein.
Haben Sie schon mal die Fernsehserie »Little Britain« gesehen? Diese etwas skurrile Ausformung von britischem Humor hat eine für uns recht spannende Szene, die regelmäßig wiederholt wird: Eine Sachbearbeiterin namens Carol arbeitet in einer Bank und sitzt hinter ihrem Computer. Menschen kommen zu ihr, die dringend einen Kredit brauchen. Sie tippt kurz auf ihrer Tastatur herum, sieht die Kunden fadisiert an und verkündet: »Computer says No«.
Jede weitere Diskussion erübrigt sich. Der Computer hat den Traum vom Haus, den dringend nötigen Überbrückungskredit oder den Start einer tollen Geschäftsidee mit einem einfachen Nein zerstört. Carol braucht sich um den Kunden nicht weiter zu kümmern und schiebt die Entscheidung des Computers vor. Keiner weiß, wie es zur Entscheidung kommt, warum man abgewiesen wird und ob man etwas tun kann. Der Computer sagt einfach nein, und Carol muss nicht weiterarbeiten.
Natürlich ist das auf den ersten Blick stark überspitzt, aber in vielen Bereichen läuft es genau so: Irgendwelche intransparenten Systeme errechnen, ob wir etwas bekommen, die Kriterien und auch die Datenbasis dürfen wir nicht wissen. Wir dürfen nur wissen, dass das System nein gesagt hat.
Die Mitarbeiter werden ebenfalls zu Automaten: Sie dürfen nicht mehr selbst entscheiden, sondern nur noch verkünden, was das System ihnen vorgibt. Damit spart man als Unternehmen an der Ausbildung der Angestellten, macht sie möglichst austauschbar und spart Kosten. In den USA ist das besonders ausgeprägt. Hier wird praktisch alles quantifiziert. Kreditscoring, Aufnahme an der Uni oder Terrorgefahr: Für alles gibt es einen Wert. Wenn der Computer entscheidet, dass man in eine gewisse Schublade gehört, ist das Ende der Debatte erreicht: »Computer says No«. Kein Mensch ist mehr verantwortlich, verantwortlich ist das System, und dieses entscheidet autoritär, wie der König das früher tat. Man kann das System nicht hinterfragen, man darf nicht wissen wie es zur Entscheidung kam, und man kann schon gar nicht seinen persönlichen Einzelfall erklären. Es entsteht eine schleichende Algorithmusdiktatur.
Читать дальше