Informatik für die moderne Hausfrau
Technology
Wenn ChatGPT Geschlechterklischees reproduziert und bildgenerierende KI-Tools Wissenschaftlerinnen (halb-)nackt darstellen, dann handelt es sich dabei um Sexismus. Doch (wie) kann Software sexistisch sein?
In der sechsten Hintergrundfolge von Informatik für die moderne Hausfrau blicken wir auf verschiedene Beispiele sexistischer Diskriminierung von Frauen durch KI-basierte Anwendungen. Da jedes KI-Modell nur so gut ist wie die Daten, mit denen es trainiert wurde, beschäftigen wir uns mit zwei sehr problematischen Phänomenen, nämlich dem Gender Data Gap und dem Gender Data Bias.
Den erwähnten Thread des Softwareentwicklers David Heinemeier Hansson auf Twitter/X könnt ihr hier nachlesen: https://x.com/dhh/status/1192540900393705474
Mehr zum Artificial Intelligence Act der EU könnt findet ihr hier: https://artificialintelligenceact.eu/de/
Alle Informationen zum Podcast findet ihr auf der zugehörigen Webseite https://www.informatik-hausfrau.de. Zur Kontaktaufnahme schreibt mir gerne eine Mail an mail@informatik-hausfrau.de oder meldet euch über Social Media. Auf Twitter, Instagram und Bluesky ist der Podcast unter dem Handle @informatikfrau (bzw. @informatikfrau.bsky.social) zu finden.
Wenn euch dieser Podcast gefällt, abonniert ihn doch bitte und hinterlasst eine positive Bewertung, um ihm zu mehr Sichtbarkeit zu verhelfen.
Falls ihr die Produktion des Podcasts finanziell unterstützen möchtet, habt ihr die Möglichkeit, dies über die Plattform Steady zu tun. Weitere Informationen dazu sind hier zu finden: https://steadyhq.com/de/informatikfrau
Hinweis: Ende Oktober 2024 wurde die Nummerierung der Folgen angepasst. Dies ist Folge 12 (neu) bzw. Folge 6.2 (alt).
Create your
podcast in
minutes
It is Free