In unserem jüngsten CoPAI-Meetup haben wir gemeinsam beleuchtet, wie „Bias by Design“ unsere KI-Systeme prägt, was hat KI mit Gleichstellung zu tun hat und was wir konkret dagegen tun können.
Ein großes Danke an unsere Impulsgeberin Nina Hoffer von NOWA, die uns mit klarem Blick und viel Praxisnähe durch das Thema geführt hat. Den Ausgangspunkt bildete ein Gedanke von Prof. Dr. Katharina Simbeck (HTW Berlin):
„KI-Systeme lernen aus großen Datenmengen und ziehen daraus Muster. Doch sie übernehmen nicht nur Zusammenhänge, sondern auch bestehende Vorurteile und Stereotype.“
Worum ging’s?
Wir sind der Frage nachgegangen, wo Bias (kognitive Verzerrungen) in KI-Prozessen entsteht und wie er sich im Alltag zeigt – von der Formulierung unserer Texte über die Bildgenerierung bis zur Nutzung von Tools in Organisationen.
Aspekte – kurz & konkret
- Sprache: Formulierungen wie „the doctor said“ werden häufig männlich gelesen; Sprache prägt Erwartungen – und damit Ergebnisse.
- Bilder: Generierte Visuals neigen dazu, Führung männlich und Care-Arbeit weiblich darzustellen – Stereotype, die Rollenbilder verfestigen.
Übung: „Spricht KI alle gleich an?“
In Kleingruppen haben wir Einladungstexte für einen Gender-Workshop erstellt – neutral, weiblich und männlichadressiert – und anschließend reflektiert, wie Wortwahl, Ton und Bilder wirken.
Willst du die Übung sofort ausprobieren? Unser Übungsdesign
- Kontext festlegen: Wähle ein kurzes Szenario (z. B. Einladung zu einem 60-Min-Workshop).
- Drei Varianten generieren:
- neutral adressiert
- weiblich adressiert
- männlich adressiert
- Analysefragen (5–10 Min):
- Welche Wörter, Bilder, Emotionen tauchen auf – wo sind Unterschiede?
- Welche Werte/Rollenbilder werden (unbewusst) transportiert?
- Welche Variante wirkt zugänglich oder abschreckend – und warum?
- Debiasing-Schritt: Lass dir alternative Formulierungen vorschlagen (z. B. geschlechtergerechte Sprache, inklusiver Ton, vielfältige Bildbeschreibungen) und vergleiche die Wirkung.
- Takeaway sichern: Leite 2–3 Stilregeln für deine künftigen Texte ab.
Materialien
Hier findest du die Präsentation von unserem Meetup. Gerne durchblättern und dich davon inspirieren lassen.
Takeaways
- Bias wirkt in allen Phasen des KI-Lebenszyklus – von Daten über Modelle bis zur Nutzung.
- Bewusste Sprache, diverse Teams und kritisches Gegenlesen/Prüfen helfen, Verzerrungen zu reduzieren.
- Konkrete Prompting-Strategien (Bias erkennen, Varianten generieren, de-biasen) sind sofort testbar – und machen spürbar einen Unterschied.
Wenn du beim nächsten Mal dabei sein willst oder Materialien suchst, schau auf unserer Projektseite vorbei – wir halten die Inhalte laufend aktuell.