Textshuttle - maschinelle Übersetzung genderfair(er)

Geschlechtervorurteile in KI-Modellen sind eine weit verbreitete Problemstellung. Sie sind meist auf voreingenommenen Datensätzen trainiert und neigen daher dazu, unbeabsichtigte Geschlechterstereotypen und somit gesellschaftliche Vorurteile zu reproduzieren. So wird bei einer automatischen Textübersetzung beispielsweise “teacher” zu “Lehrer” und “nurse” zu “Krankenpflegerin”, obwohl die Übersetzung dieser Begriffe sowohl in die weibliche wie auch in die männliche Form korrekt sein kann.

Lesen Sie den Beitrag in ihrem Blog, um mehr zu erfahren!

Publikationsdatum:

03. August 2023

Institutionen:

Universität Zürich, ETH Zürich