Stefanie Urchs

Research Associate


Main focus: AI Fairness & Responsible Tech

Social Media:

Languages: German, English

City: Munich

Country: Germany

Topics: artificial intelligence, gender in technology, ai, ai biases, ki, responsible ai, ki basics, ki governance

Services: Talk, Interview

  Willing to travel for an event.

  Willing to talk for nonprofit.

Personal note:

I conduct research on gender-specific discrimination in training data for large language models such as ChatGPT. In addition, I focus on the topics of Responsible AI and Gender in Technology.

Bio:

Stefanie Urchs is a doctoral researcher in statistics at LMU Munich. She conducts research on gender discrimination in training data for large language models such as ChatGPT. Her work focuses on making societal biases in data visible, analysing how they are algorithmically amplified, and developing new approaches for Responsible AI.

In addition to her research, she brings interdisciplinary experience from projects at the intersection of computer science, social sciences, and law. In her talks, she demonstrates how technical analyses can be connected with societal questions to critically and practically address Gender in Technology.

Examples of previous talks / appearances:

Wie sexistisch sind ChatGPT und Co.?

Künstliche Intelligenz findet immer mehr Einzug in unseren Alltag und erleichtert so manchen Arbeitsschritt. Doch sie kann auch Stereotype verstärken und die Benachteiligung von bestimmten Geschlechtern befördern, wie sich etwa bei KI-Recruiting-Tools zeigte. Wie sich genderspezifische Vorurteile auch in KI-Sprachmodellen wie ChatGPT manifestieren - und was man dagegen tun kann, erklärt die Informatikerin Stefanie Urchs von der Hochschule München: Sie erforscht, wie man Trainingsdaten auf Genderdiskriminierung untersuchen kann, bevor diese zum KI-Training eingesetzt werden.

This talk is in: German
Wie sexistisch ist ChatGPT?
Video Thumbnail

KI-Sprachmodelle wie ChatGPT sind ein gutes Werkzeug für das Verfassen von Texten. Sie haben jedoch Schwierigkeiten, bei geschlechtsspezifisch formulierten Aufforderungen geschlechtsneutral zu antworten. KI-Chatbots neigen zu sexistischen Vorurteilen. Um diese Verzerrungen zu vermeiden, müssen Menschen zurzeit die Ergebnisse noch überprüfen.

Zu diesem Thema forscht HM-Doktorandin Stefanie Urchs von der Fakultät für Informatik und Mathematik der Hochschule München.

This talk is in: German