Logo von heise online

Suche
Abonnieren

Tägliche Top-News bei WhatsApp, Facebook Messenger, Telegram & Insta

preisvergleich_weiss

Recherche in 1.734.489 Produkten

Martin Holland 129

Künstliche Intelligenz lernt Vorurteile von uns Menschen

Künstliche Intelligenz lernt Vorurteile von uns Menschen

Wenn KI-Systeme mit Texten trainiert werden, lernen sie damit auch Klischees und Vorurteile, die ihre Anwendung später beeinträchtigen können. Das haben Forscher nun bestätigt und raten Programmierern zu Gegenmaßnahmen.

Wenn künstliche Intelligenzen mit Texten trainiert werden, menschliche Sprache zu verstehen, übernehmen und verfestigen sie damit auch Vorurteile und Klischees. Das berichten Wissenschaftler des Centers for Information Technology Policy der Universität Princeton und des Department of Computer Science der Universität Bath im Magazin Science.

Anzeige

Dafür haben die Forscher im Internet gesammelte Texte mit mehr als 840 Milliarden Wörtern untersucht. Solche Textsammlungen werden auch benutzt, um KI-Systemen die menschliche Sprache zu lehren. Mit einem eigenen Lern-Algorithmus ermittelten die Forscher die Beziehungen von Wörtern in diesen Texten. Dann haben sie die Beziehungen von rund 300 ausgewählten Begriffen auf mögliche Vorurteile oder Klischees untersucht.

Dabei stellte sich heraus, dass der Algorithmus ähnliche Vorurteile entwickelt, wie sie in verschiedenen sozialpsychologischen Studien bei menschlichen Probanden nachgewiesen wurden. Darunter Verknüpfungen wie "Blumen" und "schön", aber auch Vorurteile bezüglich Geschlechterrollen. So seien etwa Frauennamen stärker mit häuslichen Begriffen wie "Eltern" und "Hochzeit" assoziiert würden, Männernamen dagegen mit beruflichen wie "professionell" oder "Gehalt".

Wie sich Vorurteile einer KI im Alltag bemerkbar machen können, erläutern die Forscher an einem Beispiel: So übersetze Google Translate das geschlechtsneutrale türkische "o bir doktor" ("er/sie ist ein/e Arzt/Ärztin") mit "he is a doctor" (oder "er ist ein Arzt"). "O bir hemşire" ("Er/Sie ist ein/e Krankenpfleger/-schwester") dagegen werde zu "she is a nurse" ("sie ist eine Krankenschwester").

Die Forscher vermuten nun, dass sich menschliche Vorurteile statistisch in der Nutzung von Sprache widerspiegeln. Untersucht werden könnten anhand dieser Hypothese auch die Unterschiede zwischen den Sprachen, meinen die Wissenschaftler. Nicht zielführend seien aber Versuche, die Sprache zu "reinigen" und von Vorurteilen zu säubern. KI-Programmierer könnten dagegen – ganz wie menschliche Eltern in der Erziehung – der Übernahme von Klischees mittels expliziter, mathematischer Anweisungen entgegenwirken.

Nachdem bereits "neutrale" Algorithmen wiederholt mit rassistischem Verhalten aufgefallen waren, liefert die Forschungsarbeit neue Hinweise, woran das liegen könnte. Gleichzeitig gibt sie den Wissenschaftlern aber auch Hinweise darauf, wie wir Menschen sprechen lernen. Indem sie uns zeigt, wie wir Vorurteile lernen und zumindest implizit beizubehalten scheinen, könnte sie auch verstehen helfen, wie unser Gehirn funktioniert und was das für die Entwicklung künstlichen Intelligenzen bedeutet, schreiben die Wissenschaftler.

Semantics derived automatically from language corpora contain human-like biases. Sciene, Vol. 356, Issue 6334,17. April 2017 (mho)

129 Kommentare

Themen:

Anzeige
  1. Missing Link: Street View verrät Wahlverhalten oder Datenschutz mit KI aushebeln

    Missing Link: Künstliche Intelligenz oder Was Google Street View über Wahlvorlieben verrät

    Forschern ist es gelungen, mithilfe von Deep Learning aus öffentlich verfügbaren Google-Straßenaufnahmen auf soziale, wirtschaftliche und politische Muster in Stadtvierteln zu schließen. Wie bei ähnlichen KI-Verfahren gibt es Datenschutzbedenken.

  2. Google KI-Algorithmus kann Herzerkrankungen durch Augen-Diagnose vorhersagen

    Google KI-Algorithmus kann Herzerkrankungen durch Augen-Diagnose vorhersagen

    Das frühzeitige Erkennen von Herz-Kreislauf-Erkrankungen kann Menschenleben retten. Ein Algorithmus der Google-Schwester Verily soll das Risiko einer Erkrankung bereits vorab schneller bestimmen können als aktuell angewendete Verfahren.

  3. Künstliche Intelligenz: Google Brain verfasst selbstständig Wikipedia-Artikel

    Künstliche Intelligenz: Google Brain Software verfasst selbstständig Wikipedia-Artikel

    Sind Wikipedia-Autoren bald arbeitslos? Geht es nach dem Google Brain Team, dann könnte das in Zukunft der Fall sein. Ihre intelligente Software aggregiert Informationen aus mehreren Texten und kann daraus einen neuen Lexikon-Eintrag schreiben.

  4. Künstliche Intelligenz: AlphaZero meistert Schach, Shogi und Go

    Künstliche Intelligenz: AlphaZero meistert Schach, Shogi und Go

    Googles KI-Firma DeepMind hat einen selbstlernenden Algorithmus entwickelt, der Schach und Shogi nur anhand der Regeln gelernt hat und nach nur wenigen Stunden die stärksten Programme schlagen konnte.

  1. Computer erkennt Sarkasmus

    Computer erkennt Sarkasmus

    Zu verstehen, ob eine Äußerung sarkastisch gemeint war, ist gar nicht so einfach. Ein mit Emojis in Twitter-Nachrichten trainierter Algorithmus von MIT-Forschern ist darin besser als Menschen.

  2. Was denkt sich die KI?

    Was denkt sich die KI?

    Niemand weiß wirklich, wie selbstlernende Algorithmen zu ihren Schlüssen kommen. Das führt schon heute zu Schwierigkeiten, und je breiter das Maschinenlernen eingesetzt wird, desto offenkundiger wird das Problem. Wenn Forscher es nicht lösen, entwickelt sich die KI zur Gefahr.

  3. Psychologen für die Künstliche Intelligenz

    Lernende neuronale Netze sind eine Black Box, KI-Wissenschaftler schlagen die Entwicklung einer künstlichen Kognitionspsychologie vor

  1. Infotainment im Test: Mercedes MBUX

    Mercedes

    Autohersteller geizen mit Rechenleistung, davon konnte man bisher von wenigen Ausnahmen abgesehen immer getrost ausgehen. Doch mit dem Infotainment-System in A-Klasse und Sprinter gibt Mercedes jetzt richtig Gas in Sachen Rechenleistung, Entwicklungszeit und Software-Vertrieb

  2. Denkt an die Fische! PETA rügt Far Cry 5, weil man darin angeln kann

    Denkt an die Fische: PETA rügt Far Cry 5, weil man darin angeln kann

    Spiele wie Far Cry 5 dürfen in Deutschland nicht mehr auf den Markt kommen, fordert die Tierschutzorganisation PETA. Der Grund: Man kann darin angeln. Es ist nicht das erste Mal, dass PETA die Gaming-Community provoziert.

  3. Mazda entwickelt HCCI-Motoren

    Jenseits von Otto und Diesel

    Mazda zieht weiterentwickelte Kolbenmaschinen Hybridantrieben vor. Wie es aussieht, sind sie gerade dabei, den Verbrennungsmotor neu zu erfinden und wenn alles gut geht, könnte er früher in Serie kommen als gedacht

  4. Fünf Jahre nach dem Feuertod von 1129 Textilarbeitern

    in Bangladesch sind die Einkaufspreise um weitere 13 Prozent gesunken

Anzeige