Logo von Technology Review

Suche
Abonnieren

Tägliche Top-News bei WhatsApp, Facebook Messenger, Telegram & Insta

preisvergleich_weiss

Recherche in 1.508.171 Produkten

Tom Simonite

Mit Daten gegen Trolle

Mit Daten gegen Trolle

Die Wikimedia Foundation arbeitet mit Google zusammen, um Onlinediskussion in zivilisiertere Bahnen zu lenken. Dabei soll eine Software gerade von Hatespeech lernen.

Frauenfeindlichkeit, Rassismus und ganz schlimme Schimpfwörter – eine Sammlung von mehr als 13.500 Online-Hassbotschaften enthält all das und noch viel mehr. Die "Nastygramme" stammen von den Diskussionsseiten der Wikipedia. Die Kollektion wurde zusammen mit 100.000 normalen Postings nun von Forschern veröffentlicht, die bei der Google-Mutter Alphabet und der Non-Profit-Organisation hinter dem Onlinelexikon, der Wikimedia Foundation, tätig sind. Mit dem Big-Data-Paket sollen Algorithmen trainiert werden, mit deren Hilfe problematische Online-Inhalte künftig leichter erkannt und bekämpft werden könnten.

Anzeige

"Unser Ziel ist es, zu sehen, ob wir nicht den Menschen im ganzen Internet helfen können, über die kontroversesten und wichtigsten Themen produktiver zu diskutieren", sagt Lucas Dixon, Chefforscher bei Jigsaw, ganz bescheiden. Seine Gruppe entwickelt innerhalb von Alphabet Technologien, die unter anderem freie Meinungsäußerung erleichtern und Korruption bekämpfen sollen.

Jigsaw und Wikimedia haben zunächst einen Crowdsourcing-Dienst mit entsprechender Manpower verwendet, um mehr als 115.000 Nachrichten auf den Wikipedia-Diskussionsseiten zu durchforsten. Menschliche Prüfer untersuchten, ob diese persönliche Angriffe enthielten, wie sie die Wikipedia-Gemeinschaftsstandards definieren.

Die Forscher konnten die so gewonnenen Daten dann verwenden, um Algorithmen aus dem Bereich des maschinellen Lernens zu füttern. Die sind mittlerweile fast so gut wie menschliche Crowdworker, behaupten Wikimedia Foundation und Jigsaw. Die Software wurde bereits auf die komplette Sammlung aus über 63 Millionen Postings losgelassen, die die Wikipedia-Redakteure in den letzten Jahren erstellt haben. Dabei ergab sich, dass nur bei einem von zehn persönlichen Angriffen auch ein Moderator eingriff.

Das Thema Hassbotschaften und Online-Belästigung ist bei der Wikimedia Foundation bereits seit dem letzten Jahr ein Top-Thema. Die Idee dabei ist, die oft ziemlich bürokratische und manchmal auch gereizte Atmosphäre innerhalb der Wikipedia-Gemeinschaft zu verbessern – laut der Wikimedia Foundation hält sie Neueinsteiger davon ab, sich zu engagieren. Die Zahl der aktiven Redakteure geht jedenfalls seit längerem zurück und in Sachen Diversität ändert sich ebenfalls wenig.

Jigsaw und Wikimedia Foundation sind nicht die ersten, die Hassbotschaften im Internet untersuchen – und auch Softwareansätze gibt es bereits eine ganze Reihe. Doch die "Nastygramm"-Sammlung, die mittels Crowdsourcing erstellt wurde, ist in ihrem Umfang und ihrer Breite bislang einzigartig, wie der Datenforscher Ellery Wulczyn von der Wikimedia Foundation sagt. Und genau solche Informationen brauche es, um die Algorithmen zu inspirieren.

Wulczyn schätzt, dass die Sammlung persönlicher Angriffe und negativer Kommentare aus der Wikipedia zwischen 10 und 100 Mal größer ist als bisher verfügbare Datenbestände. Und je mehr Daten vorhanden sind, desto genauer lassen sich Algorithmen trainieren und Filter verbessern.

Ob solche Programme sich wirklich eignen, menschliche Moderatoren zu ersetzen, bleibt jedoch offen. Sprachnuancen versteht Software bislang nur in Ansätzen. Einige Hassposter verändern ihren Stil bereits, um der automatischen Erkennung zu entgehen, berichtet Wulczyn. Und überhaupt: Man wisse noch nicht, wie Menschen auf solche Systeme wirklich reagierten.

Anzeige

(Tom Simonite) / (bsc)

Kommentieren

Anzeige
Anzeige