Dass Regulierungen und Gesetze zusätzlich zu den freiwilligen ethischen Leitlinien von Firmen, Berufsverbänden oder NGOs notwendig sind, zeigen die Entlassungen von Timnit Gebru und Margaret Mitchell durch Google. Timnit Gebru, die Leiterin der Abteilung für KI-Ethik bei Google, wurde von Google im Dezember 2020 entlassen. Auch die Entlassung Mitchells, der stellvertretenden Leiterin der KI-Ethik Abteilung, im Februar 2021 hatte mit Streitigkeiten über eine Forschungsarbeit zu tun. Untersucht wurden die Auswirkungen eines Maschine Learning-Modells zur Texterzeugung. Gebru und Kolleg*innen kritisierten die Gefahren, die von großen KI-Sprachmodellen ausgehen könnten. Sie zeigten auf, dass vorurteilsbehaftete und abwertende Sprache reproduziert werden könnte. Google soll Gebru aufgefordert haben, die Arbeit zurückzuziehen und nicht zu veröffentlichen, da durch die Arbeit Googles KI-Technologien zu negativ dargestellt würden. Mitchells Entlassung wurde mit mehreren Verstößen gegen Verhaltensregeln und Sicherheitsrichtlinien begründet. Mitchell selbst war über den Umgang der Firma mit Gebru besorgt. Für sie steht das Ausscheiden von Gebru in einem bedenklichen Zusammenhang mit Sexismus und Diskriminierung. Google bestätigte kürzlich interne Änderungen der Forschungsabteilung. Neue Strukturen und Richtlinien sollen zu einer verantwortungsbewussteren KI-Forschung führen. [26]
Die Association for Computing Machinery (ACM) hat 2018 ihre ethischen Leitlinien, den ACM Code of Ethics, erneuert. Ein Forscherteam um Andrew McNamara von der North Carolina State University führte eine Studie mit 63 Software-Engineering Studierenden und 105 professionellen Software-Entwicklern durch. Sie wollten herausfinden, ob Software-Entscheidungen durch Hinweise auf den ACM Code of Ethics beeinflusst würden. Leider stellten sie fest, dass auch explizite Hinweise, den ACM Code of Ethics bei den Entscheidungen zu berücksichtigen, ohne nennenswerte Effekte blieben. [32]
KI-Systeme sind, wie jede Technik an sich, weder gut noch böse. Heutige KI-Lösungen können schnell große Datenmengen durchsuchen und früher gezeigte Muster in neuen Daten effizient finden. Sie spiegeln wider, was in den Daten an Vorurteilen oder Stereotypen bereits enthalten ist. Es kommt auch immer darauf an, in welchem Kontext und wie sie angewendet werden. Eine KI für Bilderkennung kann, wie einleitend angesprochen, Hautkrebs erkennen, aber auch eingesetzt werden, um im militärischen Bereich angebliche Feinde zu identifizieren. Es gilt zu hinterfragen, wer entscheidet und wer verdient an den Systemen und ob sie verletzen, ausgrenzen oder belästigen. KI-Systeme selbst können nicht zwischen sinnvollen und sinnlosen Ergebnissen, zwischen fairen und diskriminierenden Resultaten unterscheiden. Sie sind nicht intelligent im menschlichen Sinn, sondern liefern lediglich Aussagen, die mit einer gewissen Wahrscheinlichkeit richtig oder auch falsch sind. Sie haben kein Bewusstsein und können nicht in einem größeren gesellschaftlichen, politischen oder humanitären Kontext „denken“. Es reicht daher nicht aus, die Lösung der Probleme alleine den Technologie-Firmen zu überlassen. Zumal deren Versuche und Lösungs-Ansätze, wie oben kurz skizziert, auch nicht immer zufriedenstellend sind. Die offenen Fragen und mögliche Lösungen betreffen nicht nur die Technologie-Industrie und die Politik, sondern uns als Gesellschaft, d.h. jede Einzelne, jeden Einzelnen, dessen Leben KI-Algorithmen beeinflussen.
[1] https://www.bundesregierung.de/breg-de/aktuelles/fortschreibung-kistrategie-1824340zuletzt zugegriffen am 24.2.2021
[2] https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_de?cookies=disabledzuletzt zugegriffen am 24.2.2021
[3] https://ai.google/principles/zuletzt zugegriffen am 25.2.2021
[4] https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinienzuletzt zugegriffen am 25.2.2021
[5] https://www.aerztezeitung.de/Medizin/Kuenstliche-Intelligenz-schlaegt-Hautaerzte-bei-Krebsdiagnose-256254.htmlzuletzt zugegriffen am 25.2.2021
[6] https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_Whitepaper_250619.pdfzuletzt zugegriffen am 27.2.2021
[7] https://advances.sciencemag.org/content/4/1/eaao5580 https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_Whitepaper_250619.pdfzuletzt zugegriffen am 27.2.2021
[8]Katharina Zweig, Ein Algorithmus hat kein Taktgefühl, Heyne 2019, Glossar Korrelation, S.316
[9] https://nakpinar.github.io/diff_victim_crime_rep.pdfzuletzt zugegriffen am 27.2.2021
[10] https://www.reuters.com/article/us-amazon-com-jobs-automation-in-sight-idUSKCN1MK08GDastin Jeffrey: "Amazon scraps secret AI recruiting tool that showed bias against women" zuletzt zugegriffen am 27.2.2021
[11] https://www.googlewatchblog.de/2015/06/peinlicher-fehler-google-photos/zuletzt zugegriffen am 27.2.2021
[12] http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdfzuletzt zugegriffen am 27.2.2021
[13]Katharina Zweig, Ein Algorithmus hat kein Taktgefühl, Heyne 2019, S. 220
[14] https://www.wsj.com/articles/tech-firms-train-voice-assistants-to-understand-atypical-speech-11614186019zuletzt zugegriffen am 27.2.2021
[15] https://de.statista.com/statistik/daten/studie/1079997/umfrage/prognose-zum-absatz-von-intelligenten-lautsprechern-weltweit/zuletzt zugegriffen am 4.3.2021
[16] https://medium.com/voice-tech-podcast/voice-the-rise-of-the-third-platform-and-why-it-matters-db4399b787f8zuletzt zugegriffen am 6.3.2021
[17] https://drkaske.de/blog-sprachassistenz/zuletzt zugegriffen am 6.3.2021
[18] https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/zuletzt zugegriffen am 6.3.2021
[19] https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1zuletzt zugegriffen am 6.3.2021
[20] https://www.youtube.com/watch?v=lvv6zYOQqm0zuletzt zugegriffen am 6.3.2021
[21] https://feministinternet.com/projects/zuletzt zugegriffen am 6.3.2021
[22] https://www.designweek.co.uk/issues/13-19-january-2020/unconscious-bias-ai-voice-assistants/zuletzt zugegriffen am 6.3.2021
[23] https://ainowinstitute.org/discriminatingsystems.pdfzuletzt zugegriffen am 6.3.2021
[24] https://arxiv.org/pdf/2101.05783v1.pdfzuletzt zugegriffen am 6.3.2021
[25] https://www.equalai.org/assets/docs/EqualAI_Checklist_for_Identifying_Bias_in_AI.pdfzuletzt zugegriffen am 6.3.2021
[26] https://www.reuters.com/article/us-alphabet-google-research-exclusive/exclusive-google-pledges-changes-to-research-oversight-after-internal-revolt-idUSKBN2AP1AC, zuletzt zugegriffen am 7.3.2021
[27] https://www.heise.de/news/Analyse-KI-Sprachmodell-GPT-3-hegt-tief-verankerte-Vorurteile-gegen-Muslime-5034341.html?wt_mc=nl.red.ho.ho-nl-daily.2021-01-26.link.linkzuletzt zugegriffen am 7.3.2021
[28] https://www.dritter-gleichstellungsbericht.de/de/topic/73.gutachten.htmlzuletzt zugegriffen am 9.3.2021
[29] https://www.heise.de/hintergrund/Diversitaet-in-der-IT-Coding-ist-keine-reine-Maennersache-5058893.html?seite=allzuletzt zugegriffen am 9.3.2021
[30] https://www.golem.de/news/gpt-3-forscher-zeigen-vorurteile-in-riesigem-sprachmodell-auf-2101-153658.htmlzuletzt zugegriffen am 6.3.2021
[31] https://www.heise.de/news/Analyse-KI-Sprachmodell-GPT-3-hegt-tief-verankerte-Vorurteile-gegen-Muslime-5034341.html?wt_mc=nl.red.ho.ho-nl-daily.2021-01-26.link.linkzuletzt zugegriffen am 6.3.2021
[32] https://www.researchgate.net/publication/328595476_Does_ACM's_code_of_ethics_change_ethical_decision_making_in_software_developmentzuletzt zugegriffen am 9.3.2021
Читать дальше