Logo von heise online

Suche
Abonnieren

Tägliche Top-News bei WhatsApp, Facebook Messenger, Telegram & Insta

preisvergleich_weiss

Recherche in 1.508.171 Produkten

Martin Holland 129

Künstliche Intelligenz lernt Vorurteile von uns Menschen

Künstliche Intelligenz lernt Vorurteile von uns Menschen

Wenn KI-Systeme mit Texten trainiert werden, lernen sie damit auch Klischees und Vorurteile, die ihre Anwendung später beeinträchtigen können. Das haben Forscher nun bestätigt und raten Programmierern zu Gegenmaßnahmen.

Wenn künstliche Intelligenzen mit Texten trainiert werden, menschliche Sprache zu verstehen, übernehmen und verfestigen sie damit auch Vorurteile und Klischees. Das berichten Wissenschaftler des Centers for Information Technology Policy der Universität Princeton und des Department of Computer Science der Universität Bath im Magazin Science.

Anzeige

Dafür haben die Forscher im Internet gesammelte Texte mit mehr als 840 Milliarden Wörtern untersucht. Solche Textsammlungen werden auch benutzt, um KI-Systemen die menschliche Sprache zu lehren. Mit einem eigenen Lern-Algorithmus ermittelten die Forscher die Beziehungen von Wörtern in diesen Texten. Dann haben sie die Beziehungen von rund 300 ausgewählten Begriffen auf mögliche Vorurteile oder Klischees untersucht.

Dabei stellte sich heraus, dass der Algorithmus ähnliche Vorurteile entwickelt, wie sie in verschiedenen sozialpsychologischen Studien bei menschlichen Probanden nachgewiesen wurden. Darunter Verknüpfungen wie "Blumen" und "schön", aber auch Vorurteile bezüglich Geschlechterrollen. So seien etwa Frauennamen stärker mit häuslichen Begriffen wie "Eltern" und "Hochzeit" assoziiert würden, Männernamen dagegen mit beruflichen wie "professionell" oder "Gehalt".

Wie sich Vorurteile einer KI im Alltag bemerkbar machen können, erläutern die Forscher an einem Beispiel: So übersetze Google Translate das geschlechtsneutrale türkische "o bir doktor" ("er/sie ist ein/e Arzt/Ärztin") mit "he is a doctor" (oder "er ist ein Arzt"). "O bir hemşire" ("Er/Sie ist ein/e Krankenpfleger/-schwester") dagegen werde zu "she is a nurse" ("sie ist eine Krankenschwester").

Die Forscher vermuten nun, dass sich menschliche Vorurteile statistisch in der Nutzung von Sprache widerspiegeln. Untersucht werden könnten anhand dieser Hypothese auch die Unterschiede zwischen den Sprachen, meinen die Wissenschaftler. Nicht zielführend seien aber Versuche, die Sprache zu "reinigen" und von Vorurteilen zu säubern. KI-Programmierer könnten dagegen – ganz wie menschliche Eltern in der Erziehung – der Übernahme von Klischees mittels expliziter, mathematischer Anweisungen entgegenwirken.

Nachdem bereits "neutrale" Algorithmen wiederholt mit rassistischem Verhalten aufgefallen waren, liefert die Forschungsarbeit neue Hinweise, woran das liegen könnte. Gleichzeitig gibt sie den Wissenschaftlern aber auch Hinweise darauf, wie wir Menschen sprechen lernen. Indem sie uns zeigt, wie wir Vorurteile lernen und zumindest implizit beizubehalten scheinen, könnte sie auch verstehen helfen, wie unser Gehirn funktioniert und was das für die Entwicklung künstlichen Intelligenzen bedeutet, schreiben die Wissenschaftler.

Semantics derived automatically from language corpora contain human-like biases. Sciene, Vol. 356, Issue 6334,17. April 2017 (mho)

129 Kommentare

Themen:

Anzeige
  1. Poker-KI gewinnt gegen Profispieler

    Poker-KI gewinnt gegen Profispieler

    Eine Poker-KI hat angeblich eine Millionensumme gegen menschliche Spieler gewonnen. Ihre Erschaffer von der Carnegie Mellon-Universität verraten aber noch keine Details zur zugrunde liegenden Technik.

  2. Jahresaufgabe: Zuckerberg rekapituliert die Entwicklung seiner persönlichen KI "Jarvis"

    Jahresaufgabe: Zuckerberg rekapituliert die Entwicklung seiner persönlichen KI "Jarvis"

    Mark Zuckerberg teilt über sein Netzwerk Facebook auch die Ergebnisse seiner ganz persönlichen Jahresaufgaben. 2016 hat er eine Künstliche Intelligenz für sein Zuhause programmiert. Zwar ist er zufrieden, den Durchbruch hat er aber (noch) nicht geschafft.

  3. Weißes Haus: Keine Angst vor Künstlicher Intelligenz

    Roboter

    Ein Forschungsbericht der US-Regierung streicht die Vorteile und das "unglaubliche Potenzial" intelligenter und lernender Maschinen heraus. Risiken etwa durch autonome Waffensysteme werden nur am Rand gestreift.

  4. ICAART 2017: Roboter handeln nicht ethisch, schärfen aber den Blick auf ethische Fragen

    Roboter, Softbank Robotics

    Auf der diesjährigen ICAART-Konferenz verhandelten Wissenschaftler das große Thema "Ethik und KI". Dabei führten sie überraschende Experimente ins Feld und fragten unter anderem, ob Roboter ethische Rahmen stecken oder Drohnen an sich böse sein können.

  1. Computer erkennt Sarkasmus

    Computer erkennt Sarkasmus

    Zu verstehen, ob eine Äußerung sarkastisch gemeint war, ist gar nicht so einfach. Ein mit Emojis in Twitter-Nachrichten trainierter Algorithmus von MIT-Forschern ist darin besser als Menschen.

  2. Was denkt sich die KI?

    Was denkt sich die KI?

    Niemand weiß wirklich, wie selbstlernende Algorithmen zu ihren Schlüssen kommen. Das führt schon heute zu Schwierigkeiten, und je breiter das Maschinenlernen eingesetzt wird, desto offenkundiger wird das Problem. Wenn Forscher es nicht lösen, entwickelt sich die KI zur Gefahr.

  3. Post aus Japan: Künstliche Intelligenz und Karl Marx

    Post aus Japan: Künstliche Intelligenz und Karl Marx

    Roboter und Künstliche Intelligenz werden derzeit als Jobkiller und Bedrohung für die Menschheit gesehen. Damit stellt sich die Frage: Können wir Systeme schaffen, die besser als wir sind?

  1. Im Test: Lexus RX450h F-Sport

    Lexus, alternative Antriebe, Hybridantrieb

    Der Reiz des Lexus RX450h F-Sport liegt klar in der Abgrenzung von den Diesel-betriebenen SUVs durch den Hybridantrieb. Der ist das Alleinstellungsmerkmal des großen Lexus. Eine Ausfahrt soll klären, wo sich er von der der Konkurrenz abgrenzt

  2. US Supreme Court wird über US-Zugriff auf EU-Daten entscheiden

    Neun Personen in schwarzen Talaren

    Die US-Regierung will Microsoft zwingen, in der EU gespeicherte Daten in die USA zu holen und preiszugeben. Bislang vergeblich. Nun widmet sich das US-Höchstgericht dem Fall.

Anzeige