Manipulieren oder die Wirklichkeit abbilden?
Umstrittene Korrektur des Duden
Weil Worte beeinflussen können, werden negativ besetzte Wörter aus Wordclouds entfernt, obschon sie oft genannt wurden. Der Duden streicht umstrittene Wörter:
Die umstrittene Wordcloud, bevor duden.de die problematischen Begriffe entfernt hat. Siehe duden.de:
Wortwolke
Asylbewerber «abschieben», «niederstechen» und «verbrennen»: Der Online-Duden muss die Vorschlagsfunktion abschalten
Eine Duden-Software zeigt an, welche Ausdrücke oft zusammen mit einem Stichwort genannt werden – dabei kommt es zu unschönen Resultaten. Nun überdenkt die Redaktion ihre Praxis.
Die Website des Duden bietet eine interessante Funktion: Sie zeigt an, welche Begriffe im Zusammenhang mit einem Wort besonders oft auftauchen. Dass es ein Computer ist, der dafür zwei Milliarden Wörter abgrast, hat seine Vorteile – ein Mensch würde das niemals hinbekommen.
Dafür merkt ein Computer nicht, wenn Verbindungen auftauchen, die, sagen wir mal, nicht ganz okay sind. Wie eine watson-Leserin feststellte, spuckt die Wolke beim Stichwort «Asylbewerber» Ausdrücke wie «anerkennen», «aufnehmen» und «unterbringen» aus. «Abschieben» ist nicht gerade schön, aber wird verständlicherweise in dem Zusammenhang genannt.
Doch zwei Begriffe sind schlicht menschenverachtend: «niederstechen» und «verbrennen».
Duden hat die umstrittenen Verbindungen nach einem Hinweis von watson umgehend gelöscht. Sprecherin Dr. Nicole Weiffen sagt:
«Wir haben die fragwürdigen Begriffe jetzt erst mal entfernt, bis wir in der Dudenredaktion eine Klärung herbeigeführt haben, wie wir grundsätzlich damit umgehen wollen.»
Nun sieht die Wortwolke jetzt beschönigt aus. Screenshot duden.de
Die Dudenredaktion muss eine Grundsatzfrage klären: Steht es in ihrer Verantwortung, computergenerierte Resultate anzupassen? Oder soll man die Software die Realität abbilden lassen, wie sie halt ist? Im Erklärungstext zu der Funktion steht:
Aber kann man solche Zusammenhänge einfach so stehen lassen?
Für die typischen Verbindungen durchsucht der Computer eine digitale Volltextsammlung mit über zwei Milliarden Wortformen aus Texten der letzten zehn Jahre. Dabei sind unterschiedlichste Textsorten vertreten: Romane, Sachbücher, Zeitungsartikel, Zeitschriftenbeiträge.
Die Berechnung basiert auf statistischen Verfahren: Je öfter das rote Kontextwort in der Nähe des Stichworts auftaucht, desto grösser ist es in der Wortwolke. «Anerkennen» und «unterbringen» fallen demnach öfter als «niederstechen» und «verbrennen». Doch offensichtlich wurden sie oft genug genannt, um es in die Wolke zu schaffen.
Google kennt das Problem
Der Duden steht mit der Problematik nicht alleine da. Im Oktober 2013 machte die UNO-Frauenorganisation darauf aufmerksam, dass die Auotocomplete-Funktion von Google sexistische Vorschläge ausspuckt.
1/4 - Die Kampagne der UNO zeigt: Die Google-Autovervollständigung bringt sexistische Denkmuster ans Licht. (Anfragen vom 9. März 2013)
2/4 - Frauen können nicht: fahren, Bischof sein, in der Kirche sprechen.
4/4 - Frauen müssen: zurechtgewiesen werden, kontrolliert werden, bestraft werden.
Gibt man im Suchfeld «Frauen sollten...» ein, kommen Vorschläge wie «zu Hause bleiben», «Sklaven sein», «in der Küche stehen». In seinem Buch Dataclysm argumentiert der Autor Christian Rudder, die Auto-Vervollständigen-Funktion würde Vorurteile nicht nur darstellen, sondern bestärken.
Daran hat sich bis heute nicht viel geändert. Auch bei einer deutschsprachigen Google-Suche taucht ein negatives Frauenbild auf:
«Die Vervollständigung von Suchanfragen wird ohne jegliche menschliche Beteiligung automatisch von einem Algorithmus generiert.»
KOMMENTAR: Wenn automatisch generierte Suchanfragen manipuliert werden, weil die Gefahr besteht, dass sich negative Denkmuster verfestigen, ist nicht nachvollziehbar.
Die Bevölkerung will keine Vordenker und wünscht bei Wortwolken keine ideologisch gefärbten Zensuren. Die Duden Redaktion müsste somit nochmal über die Bücher gehen und sich fragen, ob sie sich mit ihrer Schere im Kopf nicht einen Bärendienst erwiesen hat.
Keine Kommentare:
Kommentar veröffentlichen