Rückblick: CoP AI Meetup „Bias by Design“

Bias by Design

In unserem jüngsten CoPAI-Meetup haben wir gemeinsam beleuchtet, wie „Bias by Design“ unsere KI-Systeme prägt, was hat KI mit Gleichstellung zu tun hat und was wir konkret dagegen tun können.

Ein großes Danke an unsere Impulsgeberin Nina Hoffer von NOWA, die uns mit klarem Blick und viel Praxisnähe durch das Thema geführt hat. Den Ausgangspunkt bildete ein Gedanke von Prof. Dr. Katharina Simbeck (HTW Berlin):

„KI-Systeme lernen aus großen Datenmengen und ziehen daraus Muster. Doch sie übernehmen nicht nur Zusammenhänge, sondern auch bestehende Vorurteile und Stereotype.“

Worum ging’s?

Wir sind der Frage nachgegangen, wo Bias (kognitive Verzerrungen) in KI-Prozessen entsteht und wie er sich im Alltag zeigt – von der Formulierung unserer Texte über die Bildgenerierung bis zur Nutzung von Tools in Organisationen.

Aspekte – kurz & konkret

  • Sprache: Formulierungen wie „the doctor said“ werden häufig männlich gelesen; Sprache prägt Erwartungen – und damit Ergebnisse.
  • Bilder: Generierte Visuals neigen dazu, Führung männlich und Care-Arbeit weiblich darzustellen – Stereotype, die Rollenbilder verfestigen.

Übung: „Spricht KI alle gleich an?“

In Kleingruppen haben wir Einladungstexte für einen Gender-Workshop erstellt – neutralweiblich und männlichadressiert – und anschließend reflektiert, wie Wortwahl, Ton und Bilder wirken.

Willst du die Übung sofort ausprobieren? Unser Übungsdesign

  1. Kontext festlegen: Wähle ein kurzes Szenario (z. B. Einladung zu einem 60-Min-Workshop).
  2. Drei Varianten generieren:
    • neutral adressiert
    • weiblich adressiert
    • männlich adressiert
  3. Analysefragen (5–10 Min):
    • Welche Wörter, Bilder, Emotionen tauchen auf – wo sind Unterschiede?
    • Welche Werte/Rollenbilder werden (unbewusst) transportiert?
    • Welche Variante wirkt zugänglich oder abschreckend – und warum?
  4. Debiasing-Schritt: Lass dir alternative Formulierungen vorschlagen (z. B. geschlechtergerechte Sprache, inklusiver Ton, vielfältige Bildbeschreibungen) und vergleiche die Wirkung.
  5. Takeaway sichern: Leite 2–3 Stilregeln für deine künftigen Texte ab.

Materialien

Hier findest du die Präsentation von unserem Meetup. Gerne durchblättern und dich davon inspirieren lassen.

Takeaways

  • Bias wirkt in allen Phasen des KI-Lebenszyklus – von Daten über Modelle bis zur Nutzung.
  • Bewusste Sprachediverse Teams und kritisches Gegenlesen/Prüfen helfen, Verzerrungen zu reduzieren.
  • Konkrete Prompting-Strategien (Bias erkennen, Varianten generieren, de-biasen) sind sofort testbar – und machen spürbar einen Unterschied.

Wenn du beim nächsten Mal dabei sein willst oder Materialien suchst, schau auf unserer Projektseite vorbei – wir halten die Inhalte laufend aktuell.

Teile diesen Beitrag:

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Lust auf mehr?

In unserem Newsletter erfährst du rechtzeitig über die nächsten Meetups und aktuelle Beiträge.

Nach oben scrollen

Unser nächstes Meetup am 20. November 2025

Unser nächstes Meetup findet am Donnerstag, 20. November 2025 um 16:00 statt.
CopAI  - die Community of Practice für KI Nutzer:innen
Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.