Diese Fragen wurden, soweit bekannt, noch nicht in Studien untersucht und beantwortet. Auch ist noch vollkommen unklar, wie sich Sprachassistent*innen langfristig auf das Rollenverständnis und Verhalten von Kindern auswirken. Schon jetzt kann beobachtet werden, dass sich selbst kleinere Kinder den Sprachassistent*innen gegenüber respektlos verhalten.
Auch wenn einige Firmen mittlerweile männliche Stimmen für die Sprach-Assistenten anbieten, wird in der UNESCO Studie [19]u.a. die Verwendung von Maschinen-Stimmen oder einer gender-neutralen Stimme vorgeschlagen. Solch eine synthetische Stimme, genannt „Q“, gibt es bereits. Die synthetische, gender-neutrale Stimme „Q“ entstand auf Grundlage der Stimmen mehrerer Menschen, die sich als nicht-binär bezeichnen. Eine Sprechprobe steht online zur Verfügung. [20]
Charlotte Webb, Mitgründerin des Zirkels Feminist Internet, hat auf der Konferenz „AI Traps“ in Berlin 2019 darauf hingewiesen, dass Sexismus und weithin gepflegte Vorurteile eine zunehmende Herausforderung für Entwickler*innen von Anwendungen Künstlicher Intelligenz sind. Webb und ihre Mitstreiter*innen haben eine feministische Alexa gebaut: „F‘xa“ sagt niemals „Ich“. Damit die Nutzer*innen sich nicht zu sehr mit ihrer Sprachassistentin identifizieren, klingt sie auch nicht zu menschlich. Laut Webb brauchen die Modelle einer feministischen Künstlichen Intelligenz vorurteilsfreie Daten. Die zugrunde liegenden Algorithmen müssen mit Blick auf Diversität entwickelt werden. Es darf darin keine Diskriminierungen, egal welcher Art, geben. [21]
1.5.5Männliche Berufsbezeichnung bei maschineller Übersetzung
Im Gutachten zum dritten Gleichstellungsbericht der Bundesregierung aus 2021 findet sich folgendes Zitat: „Die maschinelle Übersetzung von ‚Lovelace war Programmiererin, Hopper war Informatikerin‘ ins Englische lautet: ‚Lovelace was a programmer, Hopper was a computer scientist.‘ Die Rückübersetzung ins Deutsche liefert uns jedoch folgenden Satz: ‚Lovelace war Programmierer, Hopper war Informatiker.‘ [28]Erfreulich ist, dass sich die Endungen anpassen, wenn die Vornamen genannt werden. Die Autor*innen des Gutachtens kommen zu dem Schluss: „Sollen Übersetzungsprogramme zufriedenstellende Ergebnisse liefern, muss die Software in der Lage sein, Wörter in Zusammenhänge und Kontexte einzubetten, um die richtige Wortbedeutung zu liefern.“ [28]
1.6Ansatzpunkte für diskiminierungsfreie Software-Entwicklung
1.6.1Diversitäre Entwicklerteams
Im Team Künstliche Intelligenz spielen derzeit wenige Frauen, oder anders ausgedrückt, Künstliche Intelligenz ist zu männlich. Dies belegen folgende Zahlen aus dem AI NOW Report aus 2019 [23]:
Der Frauenanteil bei KI-Forschung liegt bei Facebook bei 15%, bei Google sind es gerade einmal 10%. Mehr als 80% der KI-Professuren werden von Männern besetzt. Bei KI-Konferenzen sind nur etwa 18% Autorinnen vertreten. Noch schlechter sind die Zahlen für Personal mit dunkler Hautfarbe. Hier belaufen sich die Zahlen bei Google auf 2,5%, während Facebook und Microsoft hier 4,5% bieten. Zu „gender minorities“ gibt es überhaupt keine Angaben.
Aus diesen Zahlen könnte man schließen, dass die KI-Branche in einer Diversitätskrise steckt. Entwicklerteams bestehen überwiegend aus jungen, weißen Männern, die in der Regel unbewusst Stereotypen und Verzerrungen, Vorurteile aus ihrem Umfeld in die Software übernehmen.
Ähnlich wie Charlotte Webb fordern die Autorinnen des AI Now Reports, die Zusammensetzung der Entwickler-Teams grundsätzlich zu ändern. Vielfältigere Teams könnten Vorurteile in KI-Systemen verhindern. Sie empfehlen darüber hinaus, mit anderen Abteilungen (z.B. Marketing) zusammenzuarbeiten und systematisch Feedback einzuholen, um Diskriminierung möglichst früh zu erkennen.
Laut Rébecca Menat, CMO des Programmierkursanbieters Le Wagon ist Diversität in Teams von Vorteil: „So wird es nämlich möglich, Herausforderungen aus unterschiedlichen Perspektiven zu betrachten oder mit unterschiedlichen Ansätzen heranzugehen. Auf jeden Fall hat die Forschung längst bewiesen, dass diverse Teams bessere Ergebnisse erzielen – besonders, wenn es um Innovation geht.“ [29]
Die EqualAI Initiative zielt darauf ab, bewusste, aber auch unbewusste, Vorurteile in Software mit Künstlicher Intelligenz zu beseitigen. Sie hat eine Checkliste veröffentlicht, um Bias in künstlicher Intelligenz möglichst früh zu identifizieren. [25]
Ein Auszug daraus:
„Framing the Problem & Product Design
1. Who are you aiming to serve?
2. Who else will be impacted?
3. Who could use or be impacted by the AI who is not represented on your team?
4….“
1.6.3Empfehlungen der AG3 der Plattform Lernende Systeme
Die Autor*innen des Whitepapers der Arbeitsgruppe 3 für IT-Sicherheit, Privacy, Recht und Ethik der Plattform für KI stellen klar, dass KI nicht per se neutraler oder objektiver entscheidet als der Mensch. [6]
Die Autor*innen halten technische Ansätze um ethische Prinzipien in Software zu integrieren nicht für ausreichend. Begrenzen lassen sich die Diskriminierungsrisiken ihrer Ansicht nach durch folgende vier Ansätze
1. Erklärbarkeit und Überprüfung
KI-Entscheidungen sollten nachvollziehbar sein. Neben den technischen Herausforderungen gibt es aber weitere Probleme. Die Transparenz der Systeme ist kein Selbstzweck, auch Firmengeheimnisse sind wichtig für den technologischen Fortschritt.
Die Autor*innen schlagen eine unabhängige Instanz vor, die klärt, in welchem Maß und gegenüber welchen Akteuren Transparenz hergestellt wird. Diese Instanz sollte die Outputs lernender Systeme kontrollieren und bewerten. „Sie soll die Ergebnisse und von den Systemen selbst gegebenen Erklärungen mithilfe klar definierter Instrumente und Prinzipien auf Plausibilität überprüfen.“ [6]
Auch werden laufende Schulungen und Fortbildungen für Mitarbeiter*innen in Unternehmen, oder der öffentlichen Verwaltung, die die Systeme verwenden, vorgeschlagen.
2. Selektion der Kriterien
Als diskriminierend bewertete Merkmale wie etwa die ethnische Zugehörigkeit sollte aus dem Input für maschinelle Lernverfahren komplett gestrichen werden. Es bleibt aber das Problem, dass viele Merkmale als Vertreter für andere dienen können. „Generell setzt dieser Ansatz Einigkeit darüber voraus, welche Kriterien diskriminierend sind bzw. welche für uns derzeit noch nicht vorstellbaren Korrelationen akzeptabel sind.“ [6]
3. Gerechte Behandlung als Ziel maschinellen Lernens
„Eine weitere Möglichkeit wäre, eine gerechte Behandlung selbst wird zum Ziel maschineller Lernverfahren gemacht. Dann ginge es nicht mehr darum, möglichst effiziente oder genaue Klassifikationen zu ermöglichen, sondern eben möglichst gerechte.“ [6]Allerdings lassen sich unsere Vorstellungen von Gerechtigkeit und Fairness nicht formalisieren, dazu sind sie viel zu komplex. Und damit kann man diese auch nicht so einfach zum Lernziel von ML machen.
4. Effektiver Rechtsschutz und Rechtsdurchsetzung
Die Betroffenen selbst müssen über ihre Rechte informiert sein und in die Lage versetzt werden, ihre Rechte zu verteidigen oder vor Gericht einzufordern. Um die dadurch entstehenden finanziellen Aufwendungen abzufangen, könnte es eventuell eine Versicherung gegen Diskriminierung durch Lernende Systeme geben. „Den Staatlichen Behörden kommt die Aufgabe zu, einer rechtswidrigen Diskriminierung durch Selbstlernende Systeme entgegenzuwirken. Bei all diesen Maßnahmen sollte allerdings auf ein angemessenes Maß an Regulierung geachtet und Überregulierung vermieden werden.“ [6]
Читать дальше