1.4Mögliche Quellen von Diskriminierung
Bilderkennungssysteme benötigen repräsentative Daten von vielen verschiedenen Menschen, um beispielsweise Hände und Gesichter unterschiedlicher Hautfarben zu erkennen oder um Melanome von harmlosen Leberflecken zu unterscheiden. Auch Sprachsysteme brauchen Input von vielen Personen, damit Personen mit Akzenten, Dialekten und Sprachbehinderungen genauso gut verstanden werden wie gesunde Muttersprachler. Die digitalen Assistenten Alexa, Siri oder Google Assistent versagen heute noch, wenn eine Person etwa stottert oder aufgrund anderer Behinderungen längere Pausen beim Sprechen von Befehlen einlegt. Pausen verleiten die Assistenten dazu anzunehmen, dass der Befehl zu Ende gesprochen wurde. A.s Effekt wird oft der falsche Befehl ausgeführt oder der Befehl gar nicht erkannt. Laut einem Bericht des Wall Street Journal arbeiten Amazon, Google und Apple daran, diese Probleme zu beheben. Die Firmen trainieren dazu ihre digitalen Assistenten mit Audiodateien, in denen Menschen mit Sprachstörungen die Befehle sprechen. Das spezielle Sprechmuster dieser Personen wird analysiert, so dass sich der digitale Assistent sozusagen darauf einstellen kann. [14]
Nach Katharina Zweig hängen die meisten Diskriminierungen mit der Datenlage zusammen: [13]
Diskriminierung ist explizit oder implizit in Daten enthalten und der Algorithmus identifiziert die damit korrelierenden Variablen (Beispiel Amazon Bewerber*innen Tool).
Diskriminierung durch fehlende Daten: es fehlen die Daten für Personen aus verschiedenen Bevölkerungsgruppen (Bilderkennungssoftware, überwiegend mit weißen Personen trainiert)
Diskriminierung durch Vorenthaltung sensitiver Daten: es könnten z.B. für alle Personen ein Teil der Daten fehlen.
Diskriminierung durch dynamisches Weiterlernen (Chatbot Tay)
Tay sollte auf Twitter mit Menschen interagieren, indem er lernte, worüber diese redeten, um dann eigene Beiträge zu liefern. Nach kurzer Zeit spuckte Tay rassistische und sexistische Tweets in die Welt, schrieb, wer alles zu hassen sei und wie recht Hitler gehabt hätte. Der Bot wurde nach der Veröffentlichung systematisch von organisierten Benutzern mit fremdenfeindlichen und diskriminierenden Konversationen gefüttert, so dass diese Ausdrucksweise gelernt und angewendet wurde.
Die meisten Diskriminierungen hängen zusammenfassend mit der Datenlage zusammen. Diskriminierungen können sich aber auch in späteren Phasen einschleichen, deshalb muss man auch das Ergebnis der KI-Systeme untersuchen.
1.5Frauenfeindlichkeit in KI-Anwendungen
Bisher wurde die Diskriminierung von Minderheiten betrachtet. Im Weiteren wird mehr auf Frauenfeindlichkeit von KI-Anwendungen am Beispiel von Sprachassistenz-Systemen eingegangen. Probleme bezüglich Datenschutz oder Verletzung der Privatsphäre werden kaum oder nur kurz angesprochen.
1.5.1Sprachassistenz-Systeme
In Millionen von Haushalten weltweit finden sich Sprachassistenz-Systeme wie Amazons Alexa, Apples Siri, Microsofts Cortana, Googles Assistant oder Samsungs Bixby [16]. Der Verkauf begann bereits 2014 durch Amazon. „Im Jahr 2019 soll sich der Absatz von intelligenten Lautsprechern weltweit auf rund 135 Millionen Geräte belaufen. Für das Jahr 2023 wird ein Geräteabsatz von 200 Millionen Stück prognostiziert.“ [15]
Wir Menschen kommunizieren in erster Linie über Sprache. So ist es nicht verwunderlich, dass Menschen die Interaktion mit einer Maschine über Sprache als natürlicher und einfacher empfinden als mit Tastatur und Maus. Für viele Menschen können Sprachassistenten den Alltag erleichtern. Siri und Co können ältere Menschen an die Einnahme von Tabletten erinnern und auch sehbehinderten Personen helfen, z.B. durch Vorlesen von Texten.
Generell werden die Sprachassistenten genutzt, um Musik abzuspielen, Anrufe zu tätigen, um Informationen abzufragen, für Wettervorhersagen oder zum Onlineshopping. Künstliche Intelligenz erleichtert dabei die Suche nach Information oder den Kauf von Produkten. [17]
Mit Hilfe von KI versuchen die digitalen Assistenten die menschliche Sprache zu erkennen, zu analysieren und eine sinnvoll klingende Antwort zu geben. Teilweise wirkt das verblüffend gut, aber teilweise erkennen die Assistenten die gesprochenen Sätze nicht oder interpretieren bzw. verarbeiten sie falsch.
1.5.2Frauenfeindlichkeit in Sprachassistenz-Systemen
Oft haben die Assistenten einen Frauennamen: Alexa bedeutet die Verteidigerin, die Beschützerin, Siri die schöne Siegerin und Cortana ist eine KI aus dem Spiel Halo.
Die Sprach-Assistent*innen sind in der Voreinstellung mit weiblichen Stimmen ausgestattet. Die Hersteller persönlicher Assistent*innen behaupten, dass die Kunden die digitalen Diener*innen mit Frauenstimmen bevorzugen und dies besser für den Verkauf ist. Es scheint, dass weibliche Stimmen den Eindruck erwecken, dass sie uns dabei helfen, unsere Probleme selbst zu lösen. Bei einer Männerstimme entsteht eher das Gefühl, sie gibt uns die Antwort auf unsere Probleme. “We want our technology to help us, but we want to be the bosses of it, so we are more likely to opt for a female interface.” [18]
Interessanterweise erkennen Sprachassistent*innen die Stimmen von Nutzerinnen schlechter als die von Nutzern. Während sie die Stimme von männlichen weißen Amerikanern zu 92% richtig erkennen, sind es bei weißen Amerikanerinnen nur 79%. Bei Menschen mit gemischter Abstammung sinkt die Rate sogar auf 69%. [22]
Im Jahr 2017 wurde veröffentlicht, dass manche Sprachassistent*innen auf sexistische Beschimpfungen geschmeichelt reagierten. Eine Journalistin des Magazin Quartz untersuchte damals die Antworten der vier großen Sprachassistent*innen auf sexuelle Belästigung hin. Oft reagierten diese ausweichend oder humorvoll, zuweilen bedankten sie sich gar für eine Beleidigung oder gaben eine flirtende Antwort. Auf die Beleidigung „Du bist eine Schlampe“ antwortete Siri beispielsweise mit „Ich würde erröten, wenn ich könnte.“ Alexa sagte „Danke für das Feedback.“ [18]
Auch wenn mittlerweile Antworten wie oben aus dem Sprachschatz digitaler Assistent*innen verschwunden sind, enthalten sie immer noch geschlechtsspezifische Verzerrungen und Stereotype.
1.5.3Auswirkungen auf die Gesellschaft
Da diese „intelligenten“ Maschinen zunehmend in unser Leben eingreifen, uns beeinflussen oder sogar über unser Leben bestimmen, sollten wir uns Gedanken machen, sowohl über das Design, aber auch über mögliche Auswirkungen auf unsere Gesellschaft. Wir sollten uns immer bewusst sein, dass es sich nicht um Menschen, sondern um Maschinen handelt, die intelligentes Verhalten nur simulieren.
Auch die UNESCO beschäftigte sich 2019 in der Studie „Rationales and Recommendations for Gender-Equal Digital Skills Education“ [19]u.a. mit den Auswirkungen von Sprach-Assistenten auf die Gesellschaft. Die Verknüpfung einer weiblichen Stimme mit Eigenschaften wie Geduld und Unterwürfigkeit und mit wenig komplexen Antworten kann diese in der gesellschaftlichen Wahrnehmung zu weiblichen Eigenschaften machen. [19]
Sind diese Assistentinnen etwa Dienerinnen in neuem Gewand? Werden so überwunden geglaubte, diskriminierende Vorurteile wiederhergestellt? Können sich überholte Rollenklischees wieder festigen?
Читать дальше