2.2.4T-800in Camerons Terminator (1984)
2.2.5Die Mechas in Spielbergs A. I. – Artificial Intelligence (2001)
2.2.6Wall·E in Pixars Wall·E (2008)
2.2.7Mutter in Sputores I am Mother (2019)
2.3Zusammenfassung
2.4Literaturverzeichnis
Ralph-Miklas Dobler
3„Künstliche Intelligenz“ als Simulation und als Simulakrum
3.1Simulation
3.2Simulakrum
3.3Vertrauen
3.4Empathie
3.5Idolatrie
3.6Künstliche Intelligenz als sozialer Akteur
3.7Literaturverzeichnis
Jens Schröter
4KI und die Wissenschaften. Das Beispiel der Teilchenphysik
Philip Hauser
5Virtuelle Spielfelder als Begegnungsorte von Menschen und Computern
5.1Virtuelle Spielwelten
5.2Virtuelle Spielfelder
5.3Fazit
5.4Literaturverzeichnis
Nicole Brandstetter
6KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder
6.1Radikales Effizienzstreben
6.2Ökonomisierte Selbstoptimierung
6.3Entfesselte Fremdsteuerung
6.4Fazit
6.5Literaturverzeichnis
Daniel Jan Ittstein
7Rolle der Interkulturalität bei der Entwicklung, Etablierung und Verbreitung von KI-Geschäftsmodellen
7.1Künstliche Intelligenz agiert im kulturellen Kontext
7.2Interkulturalität als Wertschöpfungsfaktor
7.3Reziprozität zwischen künstlicher Intelligenz und Kultur
7.4KI und interkulturelle Kompetenz
7.5KI und Interkulturalität als Chance begreifen
7.6Literaturverzeichnis
Martin Hennig
8KI-Marketing und Gesellschaft
8.1Einleitung
8.2KI-Marketing und kulturelle Projektionen
8.2.1KI-Diskurse als Identitätsdiskurse
8.2.2Eine kurze Geschichte von KI im Film
8.3Marktsegmente
8.3.1Teamarbeit
8.3.2Sozialität
8.3.3Individuelle Arbeit, Familie und Freizeit
8.4Fazit
8.5Verzeichnis der Werbespots
8.6Literaturverzeichnis
Alicia Sommerfeld
9Zu den Rhetoriken Künstlicher Intelligenz
9.1Critical Algorithm Studies – Programm, Kritik und Verschiebung
9.2Rhetoriken Künstlicher Intelligenz
9.3Rhetoriken Künstlicher Intelligenz in sozialen Medien
9.4Fazit
9.5Literaturverzeichnis
Über die Autor*innen
1Diskriminierende Systeme – Rassismus und Frauenfeindlichkeit in KI-Systemen
Gudrun Schiedermeier
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie. Die Bundesregierung hat mit der KI-Strategie 2018 und deren Fortschreibung 2020 die Grundlage geschaffen, um Deutschland an die Weltspitze der Forschung und Anwendung von künstlicher Intelligenz zu bringen. [1]
Die Europäische Kommission veröffentlichte im Februar 2020 ein Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen. „Daten und künstliche Intelligenz bieten potenzielle Lösungen für viele gesellschaftliche Probleme auf Gebieten, die vom Gesundheitswesen über Landwirtschaft und Sicherheit bis zur industriellen Fertigung reichen. Diese Lösungen kommen allerdings nur infrage, wenn die Technologie so entwickelt und genutzt wird, dass die Menschen Vertrauen zu ihr haben. Um dieses Vertrauen zu stärken, stützt sich die Strategie der EU auf Grundwerte und erhöht damit nicht nur die Akzeptanz KI-basierter Lösungen bei den Bürgerinnen und Bürgern, sondern spornt auch Unternehmen zu deren Entwicklung an.“ [2]Das Thema ist in der Politik angekommen. KI ist gekommen und wird wohl bleiben.
Viele Firmen (z.B. Google [3]), Fachorganisationen wie die Gesellschaft für Informatik [4]und NGOs haben in den letzten Jahren ethische Leitlinien veröffentlicht. Ob und inwieweit diese freiwilligen Vereinbarungen nützlich und ausreichend sind, darauf wird später noch eingegangen.
Anwendungen und Produkte mit künstlicher Intelligenz beeinflussen bereits den Alltag von Millionen von Menschen, z.B. durch die Verwendung von Sprach-Assistenten oder durch Optimierung beim Onlineshopping. KI-Tools und -Dienste haben erheblichen Einfluss auf menschliche Schicksale: Sie beraten Ärzte bei medizinischen Behandlungen, entscheiden über Kredite, geben Empfehlungen beim Anwerben von Mitarbeitern, beim Wiedereingliedern von Arbeitslosen in den Arbeitsmarkt oder machen Vorhersagen über die Rückfälligkeit von Straftätern, um nur einiges zu nennen. Viele dieser Systeme zielen auf eine größere Objektivität, als man sie von menschlichen Entscheidern in der Vergangenheit erwarten konnte. Einige dieser Systeme erfüllen durchaus ihren Zweck. Als positives Beispiel sei eine Mitteilung in der Ärzte-Zeitung aus 2019 zur Erkennung von Hautkrebs mittels KI-Algorithmen genannt. In einer Untersuchung traten 157 Hautärzte aus zwölf Universitätskliniken in Deutschland gegen Computer an: Sowohl die Ärzte als auch der eigens programmierte Algorithmus beurteilten dabei 100 Bilder danach, ob es sich um ein Muttermal oder um schwarzen Hautkrebs handelt. Am Ende war der Algorithmus präziser als die klinische Diagnostik, wie das Nationale Zentrum für Tumorerkrankungen Heidelberg mitteilte. [5]
Mittlerweile ist aber bekannt, dass mehrere KI-Algorithmen z.B. Menschen mit dunkler Hautfarbe oder aufgrund des Geschlechts diskriminieren, z.B. die Bewerbungen von Frauen systematisch aussortieren. Beispiele folgen in Kapitel 1.3.
1.2Definition Diskriminierung
Die nachfolgende Definition für das Wort „Diskriminierung“ stammt aus dem Whitepaper der AG3 der Plattform Lernende Systeme. Die Autorinnen und Autoren sind Mitglieder der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. Als eine von insgesamt sieben Arbeitsgruppen thematisiert sie Fragen zur Sicherheit, Zuverlässigkeit und zum Umgang mit Privatheit bei der Entwicklung und Anwendung von Lernenden Systemen. Sie analysiert zudem damit verbundene rechtliche sowie ethische Anforderungen und steht in engem Austausch mit allen weiteren Arbeitsgruppen der Plattform Lernende Systeme. [6]
„Diskriminierung“ stammt vom lateinischen Wort „discriminare“ (unterscheiden) ab. Das Wort ist an sich neutral. Diskriminierung hilft Sachverhalte durch schnelle Unterscheidung einfacher zu erfassen. Zentral dabei ist, ob Unterscheidungen gerechtfertigt sind oder eben nicht. Diskriminierung im negativen Sinn liegt vor:
bei einer ungerechtfertigten Ungleichbehandlung von Gleichen oder
bei einer ungerechtfertigten Gleichbehandlung von Ungleichen.
Im Folgenden wird anhand von Beispielen die Diskriminierung durch Algorithmen verdeutlicht.
1.3Rassismus in KI-Systemen
1.3.1Algorithmus zur Einschätzung der Rückfallwahrscheinlichkeit von Strafgefangenen
Die staatlichen Gefängnisse in den USA sind überfüllt. Deshalb wurden Algorithmen entwickelt, die zur Einschätzung des Rückfälligkeitsrisikos von Strafgefangenen eingesetzt werden, und zwar dann, wenn über deren frühzeitige Entlassung verhandelt wird. Die dazu eingesetzte Software ist meistens COMPAS („Correctional Offender Management Profiling for Alternative Sanctions“).
COMPAS liefert Richter*innen einen Wert für die Wahrscheinlichkeit, mit der Angeklagte erneut straffällig werden. Das Problem dabei ist, dass die Algorithmen mit historischen Daten trainiert werden, die nicht auf kausalen Zusammenhängen, sondern auf statistischen Korrelationen beruhen. [8]Aufgrund dessen erhalten Menschen aus Bevölkerungsgruppen, die in der Vergangenheit für die Strafverfolgungsbehörden auffällig waren, z.B. ethnische Minderheiten oder Personen mit schlechterem finanziellen Status, schlechtere Prognosen und werden allein aufgrund der Zugehörigkeit zu einer bestimmten Bevölkerungsgruppe benachteiligt. Vorherrschende Verzerrungen werden also durch den Algorithmus kopiert und sogar verstärkt.
Читать дальше