Computerlinguistik
Künstliche Intelligenz hat Vorurteile gegenber Dialekten

Künstliche Intelligenz wie ChatGPT oder Gemma hat Vorurteile gegenüber Dialekten. Das haben Forschende der Computerlinguistik unter anderem von der Universität Mainz getestet. Sie haben die KIs Texte bewerten lassen. Diese hatten alle denselben Inhalt, waren aber in sieben verschiedenen Dialekten verfasst.

    Ein Display mit Apps, die mit KI arbeiten wie ChatGPT und Deepseek
    Ein Display mit Apps, die mit KI arbeiten wie ChatGPT und Deepseek (IMAGO / SOPA Images)
    Zum Beispiel Plattdeutsch, Rheinländisch oder Bairisch - und zum Vergleich in Standard-Hochdeutsch. Dann sollte die KI jeweils die Person bewerten, die den Text geschrieben hatte. DasErgebnis: Die Künstlichen Intelligenzen bewerteten die Personen mit Dialekt-Text eher negativ als ungebildet und auch als ländlich und traditionell. Das Hochdeutsche brachten sie mit Wörtern "gebildet", "professionell" oder "vertrauenswürdig" zusammen.
    Das kann bei Bewerbungen zum Problem werden, sagen die Forschenden, denn in Auswahlverfahren werden immer öfter KIs eingesetzt. Sie fordern, KI-Sprachmodelle so zu programmieren, dass Dialekte nicht benachteiligt werden, sondern Vielfalt respektieren. Denn aus ihrer Sicht sind Dialekte ein wichtiger Teil der kulturellen Identität.
    Diese Nachricht wurde am 13.11.2025 im Programm Deutschlandfunk gesendet.