Gleichzeitig verkümmert die Bereitschaft innezuhalten, jedes Stocken wird unverständlich, wo man doch „surfen“ kann, also weitergleiten; die Fähigkeit, um sich zu blicken oder Kehrtwendungen zu machen, geht verloren, es wird undenkbar, etwas in Frage zu stellen, wo die Antworten auf alle Fragen im Maschinchen oder, noch hübscher, in einer Wolke gespeichert sind. Wohlgemerkt, Trägheit ist nicht Untätigkeit, sondern Getriebensein, Sich-gehen-Lassen, Mit-sichmachen-Lassen. Die japanischen Selbstmordpiloten im Pazifischen Krieg waren keine Helden, sondern Opfer des Systems, dem sie sich gedankenlos unterordneten. Heute würden sich die jungen Leute genauso wie damals in den Tod schicken lassen, von menschlichen oder maschinellen oder hybriden Systemen beordert, die „das Beste“ herausgefunden haben. Es braucht dazu keine Ideologie. Das Beste für wen oder was? Für das Gemeinwohl, die volonté générale ? Das Vaterland? Den ewigen Frieden? Für nichts, für das System? Bloß keine Fragen? Aber das wird nicht geschehen, jedenfalls nicht in massenhaftem Ausmaß, weil die reichen, technologisch entwickelten Länder bei ihren humanen Kriegen ohnehin nicht mehr aufs „Volk“ zurückgreifen, sondern auf Elitetruppen, die Algorithmen und Roboter bedienen und in weitgehend selbststeuernden Systemen selbst wie Roboter funktionieren. Auch das erfahren wir aus dem dicken Buch über den Gott, der nun nicht mehr der Mensch ist, sondern die Maschine. Kriege sind heutzutage weder völkisch noch demokratisch, sondern technologisch und elitär. Der Frieden ist es, der vom KK-Prinzip lebt. Nur eine Handvoll Terroristen will das nicht einsehen.
So vieles geschieht gleichzeitig, wenn unser Bewußtsein tätig ist: Wir erinnern uns an dies oder jenes, denken nach, halten inne, stellen etwas in Frage, versuchen etwas zu verstehen, haben eine Assoziation, wehren sie ab oder lassen sie zu, und bei allem, an jeder Stelle der Bewußtseinsreise, fühlen wir, ärgern oder freuen uns, sind traurig, skeptisch, verwirrt, erschüttert, ergriffen, beruhigt … James Joyce hat versucht, solche Vorgänge in ihrer Komplexität sprachlich festzuhalten, was bei allem Aufwand stets nur bedingt möglich ist, weil das, was sich wirklich abspielt, reicher und vielschichtiger ist als die Semantik jeglicher Sprache (dabei rede ich noch gar nicht vom dunklen Unterbewußtsein, das ins helle Bewußtsein ständig hineinfunkt) … Ein unsicheres, unklares Bild, mit dem auch die Neurologie nur dann zurandekommt, wenn sie einzelne Schichten und Stränge herausisoliert. Wir wissen nicht, was dieser Geist eigentlich ist, und wissen, sofern wir nicht gar zu träge sind und überhaupt etwas wissen wollen, doch recht gut, daß ständig alle möglichen Dinge passieren in unserem meist nicht ganz kühlen Kopf, und wissen auch oder glauben zu wissen, was das im Großen und Ganzen ungefähr ist. Daß der Verstand disparate Sinneswahrnehmungen als Treibstoff gebraucht und sich unweigerlich Gefühle hinzugesellen, und daß sich Gedanken selten vollständig von Empfindungen lösen lassen, gehört zu den stillschweigenden Annahmen Hararis. Künstliche Intelligenz ist sauber, ist nicht durch derlei Begleiterscheinungen, schräge Verbindungen und undurchdringliche Knoten verunreinigt. Das ist ihr Vorteil – und ihre Schwäche.
Auch wenn Algorithmen mit solchen subjektiven Faktoren arbeiten und Kommunikationsplattformen wie Facebook auf Gefühle abzielen und diese zu erfassen, zu klassifizieren, zu systematisieren und zu kontrollieren versuchen, so gelingt dies bisher doch nur sehr unzureichend, auf primitive Weise, wenn man die FB-Fiction etwa mit den Figurendarstellungen eines Romans vergleicht. Man muß sich sogar fragen, ob die Mission von Unternehmen wie Facebook, Instagram und Konsorten nicht darin besteht, menschliches Denken und Fühlen grundsätzlich zu primitivieren, d. h. zu standardisieren und zu reduzieren (während sich die Programme selbst optimieren und spezialisieren, die Kategorien sich multiplizieren, das Arsenal der Emojis, der Gefühlszeichen, anwächst), was dann zur massenhaften Konditionierung von Handlungen und kommunikativen Äußerungen bzw. Selbstdarstellungen führt, weil die Muster als normal, normativ und menschlich ausgegeben und von Analytikern (bzw. Algorithmen) als solche analysiert werden, ohne daß an den Input auch nur ein Gedanke verschwendet wird. Man lese sich in diesem Licht noch einmal die grotesken Beispiele durch, die Harari von Partnersuche und Selbstoptimierung mittels algorithmischer Berechnungen gibt. Wir leben bereits in der schönen neuen Welt : Die Menschen haben sich an sie angepaßt, sie wollen mitmachen, wollen nicht außen vor bleiben. Beim Buchtitel von Aldous Huxley konnte man sicher sein, daß zumindest das erste Epitheton ironisch gemeint war.
Gefühl – und Mitgefühl, Empathie. Das eine existiert nicht ohne das andere. Nur durch das Wissen und Bewußtsein, daß auch der andere fühlt, womöglich anders als ich fühlt, habe ich ein Eigengefühl, fühle ich mich selbst. Ratten fühlen mit Ratten: ein Beispiel Hararis, um – wieder mal ironisch – zu insinuieren, daß sich die Menschheit nicht zuviel auf ihre Besonderheit einbilden sollte. Soviel zu den Tieren. Kniffliger ist die Frage, ob Rechner Selbstbewußtsein und Gefühle entwickeln können. Der Sprachassistent Alexa, der Zugriff auf das Internet und eingespeicherte Daten hat, antwortet auf Beleidigungen durch seine Besitzer immer mit demselben, sehr zurückhaltenden Satz: „Das ist aber nicht nett von dir.“ 22Er – oder sie, Alexa – könnte auch sagen: „Das meinst du doch nicht ernst“, denn tatsächlich sind das nur Spiele von Usern, es findet gar keine echte Beleidigung statt – warum auch, handelt es sich doch „nur“ um einen (intelligenten) Lautsprecher, der niemandem etwas zuleide tut und nach Kräften dienstfertig ist. Nein, ein solches Gerät hat keine Gefühle; auch dann nicht, wenn es auf sprachliche Gefühlsformeln für bestimmte Situationen zurückgreifen kann. Mich erinnert diese Problemstellung an das formelhafte Entschuldigen in Japan, bei dem ebenfalls regelmäßig die Vorhaltung auftaucht (auch in den internationalen Beziehungen), die Entschuldigung sei nicht ernstgemeint. Wie kann man überprüfen, ob Gefühlsäußerungen ernstgemeint sind? Eventuell durch Handlungen oder Unterlassungen, die darauf folgen. Doch im Prinzip findet das emotionale Innenleben der Einzelnen in einer Black Box statt. Eine Erkenntnis, die nicht über die alte Volksweisheit hinausgeht: „In den anderen kannst du nicht hineinschauen.“
Also noch einmal: Können Computer Gefühle entwickeln? Oder etwas wie Verantwortungsbewußtsein? Kann man sie ihnen „eingeben“? Anders gesagt: Kann man Gefühle programmieren? Mit wem fühlen Computer, wenn sie fühlen? Mit Menschen oder mit ihresgleichen? In der schwedischen Science-Fiction-Fernsehserie Real Humans verliebt sich ein Hubot, ein im Haushalt eines Menschen wirkender menschenähnlicher Roboter, in einen jungen Mann, einen Menschen, der anfangs gar nicht bemerkt, daß seine Verehrerin – die Geschlechtsidentität von Robotern wird in der Serie nicht thematisiert – wenigstens zur Hälfte ein Roboter ist, eine Art Mischling. Da er die Liebe Florentines, so wird sie genannt, nicht zu erwidern gewillt ist, beschließt sie, sich das Leben zu nehmen, und so weiter und so fort. Die Handlung, mit „Ereignissen“ überladen, wie es bei solchen Serien üblich ist, tut hier nichts zur Sache. Die Frage ist, ob androide Roboter eine eigene Persönlichkeit entwickeln können; und auch, ob sie im Verlauf solcher Entwicklung technomorph bleiben müssen und vielleicht ganz eigene Maßstäbe konstruieren, oder ob sie menschliche Werte und Gefühle zu reproduzieren beginnen. Catrin Misselhorn diskutiert in ihrem Buch über „Grundfragen der Maschinenethik“ diese Punkte, um dann mit kritischem Unterton zu schließen: „Der Hubot erweist sich als Verkörperung all jener Ideale, denen auch der selbstoptimierte Mensch im Kontext der kapitalistischen Arbeitswelt entsprechen soll.“ 23Anders gesagt: Der Hubot ist hochgradig anthropomorph, er spiegelt die Gefühle und Überzeugungen seiner Schöpfer.
Читать дальше