Dieses Mal wartete die Drohne nicht einmal darauf, dass sie sich hinsetzten. Sie beschleunigte heftig in einem vertikalen Aufstieg, sobald Cat sich im Inneren befand. Cats Knie gaben unter den enormen G-Kräften nach. Sie stürzte schwer zu Boden und ein scharfer Schmerz fuhr durch ihre Schulter.
Das Flugzeug wendete und Helena fixierte Cat mit ihren Tentakeln. Sie schossen davon.
Ein plötzlicher Lichtblitz erhellte den Himmel mit solcher Intensität, dass trotz der kleinen Seitenfenster der Innenraum blendend hell erleuchtet wurde. Cat spürte, wie das Netz waberte und brannte, bevor es ganz erlosch. Millionen von Menschen verschwanden aus dem Netz.
Cats Herz pochte heftig in ihrer Brust. Die Stadt Miami war gerade ausgelöscht worden. Sie hätte es verhindern können, aber eine Vision der Zukunft hatte ihr geraten, es nicht zu tun.
»Warum habe ich nichts getan?«
2025, während des Jahres ohne Internet (JOI) – vor zwanzig Jahren
Als Teenager hatte Leon Tsarev versehentlich den Phage-Virus erschaffen, einen Computervirus, der alle Computer des Planeten befiel, sich in der Folge rasch weiterentwickelte und ein Bewusstsein erlangte. Diese Virusrasse von KIs hätte beinahe einen Weltkrieg ausgelöst. Er hatte damals nicht erwartet, dass ihn das einmal in die Position als einer der Leiter des Instituts für Angewandte Ethik bringen würde.
Aber genau das war er jetzt, gerade einmal achtzehn Jahre alt und an der Seite von Mike Williams arbeitend, einem der Schöpfer der ersten künstlichen Intelligenz, die dem Phage-Virus vorausgegangen war, einer dem Menschen wohlgesonnenen KI namens ELOPe. Im Jahr 2015 erschaffen und von Mike über zehn Jahre sorgsam überwacht hatte ELOPe sowohl für Fortschritte in der Medizintechnologie und der Umweltforschung als auch für den Weltfrieden und die Stabilität der globalen Finanzmärkte gesorgt. Nur eine Handvoll Menschen auf der ganzen Welt hatten von ELOPes Existenz gewusst.
Aber die Fortschritte bei Hard- und Software hatten auch dazu geführt, dass jeder Hacker die Entstehung einer KI reproduzieren konnte. Der Geist in der Maschine war aus der Flasche entkommen.
Das Primärziel des Instituts für Angewandte Ethik war die Entwicklung eines ethischen Rahmenwerks für neu entstandene KIs. Diese Richtlinien mussten sicherstellen, dass die zielgerichteten und wissbegierigen KIs nicht dem Menschen, seiner Infrastruktur oder seiner Kultur schaden würden.
Leon ging vor einem Whiteboard auf und ab. »Die KIs müssen sich gegenseitig überwachen«, sagte er. »Es ist nicht möglich, jedes denkbare ethische Dilemma vorauszusagen und in einen Programmcode zu packen.«
»Klar«, bestätigte Mike, »aber was sollte so eine KI davon abhalten, Dinge zu tun, die eine andere KI nicht bemerkt?«
»Absolut alles muss verschlüsselt und authentifiziert werden. Niemand darf ohne Authentifizierung auch nur ein einziges Datenpaket senden. Kein Programm darf auf einem Rechner laufen, ohne einen Schlüsselcode für den Prozessor zu haben.«
»Und wer stellt die Schlüsselcodes zur Verfügung?«, fragte Mike. »Ein Mensch kann diese Prozesse, die in Millisekunden ablaufen, nicht überblicken.«
»Andere KIs schon. Die, die am vertrauenswürdigsten sind. Darum brauchen wir das soziale Reputationssystem, damit wir die Vertrauenswürdigkeit bewerten und belohnen können.«
Eine Leere umgab sie und lastete schwer auf Leon. Das Büro des Instituts bot Raum für zweihundert Mitarbeiter, aber jeder, den sie für das Institut anwerben wollten, war immer noch bis über beide Ohren damit beschäftigt, die weltweite digitale Infrastruktur wieder aufzubauen. Beinahe die Hälfte aller Informationssysteme musste von Grund auf neu konzipiert werden, um den von ihnen veröffentlichten Sicherheitsstandards zu genügen. Ohne global vernetzte Computersysteme konnte es keine weltumspannende Versorgungskette geben, keinen Warentransport, keine Elektrizität oder Öl, keine Nahrungsmittel oder Wasser. In der Öffentlichkeit sprach man vom Jahr 2025 schon als dem Jahr ohne Internet, dem JOI.
Zurzeit bestand das Institut nur aus Mike und ihm.
»Noch mal von Anfang an, Herr Software-Architekt«, sagte Mike seufzend. »Ich habe also eine KI, die eine gute Reputation hat, aber sich entscheidet, etwas Böses zu tun. Sagen wir, sie will eine Bank ausrauben, indem sie sie hackt und die Guthaben transferiert. Was hält sie davon ab?«
»Zunächst muss man sich klarmachen, dass sie dazu konditioniert ist, sich korrekt zu verhalten. Eine positive Reputation entsteht auch erst mit der Zeit. Die KI wird durch wiederholte Erfahrungen gelernt haben, dass eine hohe Reputation zu einer besseren Beziehung zu anderen KIs führt und damit zu besserem Datenzugang und Rechenleistung. Das ist sehr viel wertvoller als alles, was sie sich von dem gestohlenen Geld kaufen könnte. Sie würde sich also gegen den Bankraub entscheiden.«
»Das wäre der logische Weg«, wandte Mike ein. »Aber was, wenn sie unlogisch handelt? Was wäre, wenn die Persönlichkeit der KI nur bis zu einem gewissen Punkt stabil ist und danach durchdreht? Wer hält sie auf?«
»Na gut, ich nehme an, wir reden hier über einen digitalen Raub. Dafür sind zwei Aspekte wichtig: Rechenleistung und Datenzugriff. Die KI würde Daten über die Bank und ihre Sicherheitsmaßnahmen benötigen, außerdem wäre es notwendig, Daten zu verschicken und zu empfangen, um den Angriff durchzuführen.« Leon unterbrach sich, um etwas auf das Whiteboard zu zeichnen. »Die Daten über die Bank werden zu einem digitalen Fingerabdruck. Andere KIs stellen diese Daten zur Verfügung und sie werden interessiert sein zu erfahren, wer diese Daten will und warum. Da die Datenpakete authentifiziert werden müssen, werden sie wissen, wer sie abfragt. Wir wiederum werden wissen, welche KI die Datenpakete verarbeitet, bevor die Attacke überhaupt stattfindet. Wenn die Bank dann ausgeraubt wird und wir sehen, wer sich eingehackt und die Daten übertragen hat, dann wissen wir genau, welche KI dafür verantwortlich ist.«
»Wo bleibt da die Privatsphäre?«, fragte Mike. »Alles, was wir online tun, würde überwacht werden. Als ich ein junger Mann war, gab es einen Riesenaufstand, als bekannt wurde, dass die Regierung ihre Bürger überwacht. Aber das hier wäre viel schlimmer.«
Leon starrte auf seine Schuhe und erinnerte sich. In der Zeit, von der Mike sprach, war er gerade mal sieben Jahre alt und mit seinen Eltern frisch aus Russland eingewandert gewesen. Aber er hatte später Kurse über die Geschichte des Internets an der Highschool gehabt. »Nein. Damals hatte die Regierung nicht die rechtliche Grundlage dazu. Die Privatsphäre ist auch nur ein Teil des Gesamtbildes. Hätte die Regierung die Daten wirklich nur genutzt, um Kriminelle zu überwachen, hätte es gar keinen öffentlichen Aufschrei gegeben. Es war der Missbrauch der Daten, der die Menschen wütend machte.«
Mike stand auf und ging zum Fenster. »Wie in den Highschools, die ihre Schüler mit Malware bespitzelten und Fotos mit den Webcams machten.« Er wandte sich um und sah Leon an. »Was könnte verhindern, dass so etwas wieder passiert?«
»Die Antwort lautet: Die Reputation«, antwortete Leon. »Eine KI, die vertrauliche Informationen verbreitet, wird ihre Reputation schädigen, was zu weniger Netzzugang und Rechenleistung führt.«
»Okay, du bist der Architekt. Aber was hielte zwei KIs davon ab, gemeinsame Sache zu machen? Wenn die eine die Daten abfragt, die andere über die Daten verfügt und zur Zusammenarbeit bereit ist … Nehmen wir einfach einmal an, die zweite KI entdeckt den Bankraub im Planungsstadium und entscheidet sich, mit einzusteigen.«
Leon plusterte sich jedes Mal ein wenig auf, wenn Mike ihn als den Architekten bezeichnete. Er wusste, dass Mike es ernst meinte. Der Ausdruck stammte aus den Zeiten, als ein Programmierer ganz allein die Struktur und das Konzept einer Softwareanwendung festlegte. Der Ältere vertraute ihm vollständig und Leon wollte ihn nicht enttäuschen. »Die zweite KI kann nicht wissen, ob nicht auch andere KIs den Datentransfer bemerkt haben. Wenn sie sich also zur Zusammenarbeit entschließt, setzt sie sich dem Risiko aus, es sich mit vielen anderen KIs zu verscherzen. Sie kann auch nicht sicher sein, ob die erste KI wirklich etwas Böses vorhat: Erst eine Anhäufung vertraulicher Daten würde so etwas wie einen Beweis darstellen. Also würde sie riskieren, einer KI eine illegale Handlung vorzuschlagen, die womöglich gar nicht geplant hatte, ein Verbrechen zu begehen. Und wie könnte die erste KI wissen, dass sie der zweiten vertrauen kann? Vielleicht versucht diese KI nur, sie in eine Falle zu locken.«
Читать дальше