Themenschwerpunkt: AI Fairness & Responsible Tech
Social Media:
Sprache/n: Deutsch, Englisch
Stadt: München
Land: Deutschland
Themen: artificial intelligence, gender in technology, ai, ki, künstliche intelligenz (ki), ki basics, ki kompetenz, ki governance
Ich biete: Vortrag, Interview
Ich bin bereit, für eine Veranstaltung zu reisen.
Ich bin bereit, für gemeinnützige Zwecke kostenfrei zu sprechen.
Ich forsche zu geschlechtsspezifischer Diskriminierung in Trainingsdaten für Large Language Models wie ChatGPT. Darüber hinaus beschäftige ich mich mit den Themen Responsible AI sowie Gender in Technology.
Stefanie Urchs ist Doktorandin der Statistik an der LMU München und forscht zu Gender-Diskriminierung in Trainingsdaten für Large Language Models wie ChatGPT. Ihr Fokus liegt darauf, wie gesellschaftliche Vorurteile in Daten sichtbar werden, wie sie algorithmisch verstärkt werden und wie sich daraus neue Ansätze für Responsible AI entwickeln lassen.
Neben ihrer Forschung bringt sie interdisziplinäre Erfahrung aus Projekten an der Schnittstelle von Informatik, Sozialwissenschaften und Recht mit. In ihren Vorträgen zeigt sie, wie technische Analysen mit gesellschaftlichen Fragestellungen verbunden werden können, um Gender in Technology kritisch und praxisnah zu beleuchten.
Vorträge / Referenzen:
Künstliche Intelligenz findet immer mehr Einzug in unseren Alltag und erleichtert so manchen Arbeitsschritt. Doch sie kann auch Stereotype verstärken und die Benachteiligung von bestimmten Geschlechtern befördern, wie sich etwa bei KI-Recruiting-Tools zeigte. Wie sich genderspezifische Vorurteile auch in KI-Sprachmodellen wie ChatGPT manifestieren - und was man dagegen tun kann, erklärt die Informatikerin Stefanie Urchs von der Hochschule München: Sie erforscht, wie man Trainingsdaten auf Genderdiskriminierung untersuchen kann, bevor diese zum KI-Training eingesetzt werden.
Dieser Vortrag ist auf: Deutsch
KI-Sprachmodelle wie ChatGPT sind ein gutes Werkzeug für das Verfassen von Texten. Sie haben jedoch Schwierigkeiten, bei geschlechtsspezifisch formulierten Aufforderungen geschlechtsneutral zu antworten. KI-Chatbots neigen zu sexistischen Vorurteilen. Um diese Verzerrungen zu vermeiden, müssen Menschen zurzeit die Ergebnisse noch überprüfen.
Zu diesem Thema forscht HM-Doktorandin Stefanie Urchs von der Fakultät für Informatik und Mathematik der Hochschule München.
Dieser Vortrag ist auf: Deutsch