Ethik · Aktiv

KI-Ethik.

Bias, Verantwortung, Transparenz — von Anfang an. Nicht als Anhang, nicht als PR. Als Grundlage für alles, was danach kommt.

Dauer ~55 Min
Level Einsteiger → Fortgeschritten
Übungen 6 interaktiv
Themen Bias · Verantwortung · Transparenz · Gewissen
Dein Fortschritt
Teil 01
01 Grundlage

Ethik ist keine
Bremse.

In der Tech-Welt hat Ethik einen schlechten Ruf. Sie gilt als Störung des Fortschritts — als das, was Teams langsamer macht und Produkte verkompliziert. Das ist falsch. Ethische KI ist bessere KI — präziser, zuverlässiger, fairer.

Wenn Systeme Menschen schaden, kostet das. Vertrauen, Geld, Menschenwürde. Ein Gesichtserkenunungssystem, das dunkle Hautfarben schlechter erkennt, ist kein "wertfreies" Werkzeug — es ist ein System, das diskriminiert. Die Frage ist nicht, ob KI Werte hat. Sie hat sie immer. Die Frage ist: Wessen Werte? Und wer darf das entscheiden?

Kernprinzip

Jedes KI-System kodiert Werte. Im Datensatz, im Design, in den Entscheidungen der Teams, die es bauen. Ethik in KI ist kein Add-on — es ist die Frage, welche Werte eingebaut werden, und wer darüber Kontrolle hat.

01

Algorithmische Fairness

Ein Algorithmus ist nicht neutral, weil er eine Maschine ist. Er reflektiert die Daten, mit denen er trainiert wurde — und die Entscheidungen der Menschen, die diese Daten ausgewählt haben. Fairness ist messbar, aber Messung ist auch eine Wahl.

02

Algorithmischer Bias

Bias entsteht, wenn Systeme bestimmte Gruppen systematisch benachteiligen — oft ohne Absicht, aber mit echten Konsequenzen. Er kann in den Trainingsdaten stecken, im Modelldesign, in der Art, wie Erfolg definiert wird.

03

Verantwortlichkeit

Wenn ein KI-System Schaden anrichtet: Wer ist verantwortlich? Der/die Entwickler*in? Das Unternehmen? Der/die Nutzer*in? Diese Frage ist oft unklar — und das ist kein Zufall. Unklarheit schützt diejenigen, die Macht haben.

04

Transparenz & Gewissen

Transparenz bedeutet nicht, alles öffentlich zu machen — sondern erklärbar zu machen, wie Entscheidungen entstehen. Gewissen bedeutet, diese Fragen zu stellen, bevor man shipped. Nicht danach.

Teil 02
02 Bias in der Praxis

So sieht Bias
aus.

Bias ist kein abstrakter Begriff. Er zeigt sich in konkreten Systemen, die echte Auswirkungen auf echte Menschen haben. Wähle ein Szenario und sieh, wie Systeme verschiedene Gruppen unterschiedlich behandeln.

Bias-Visualisierung — Reale Szenarien Klicke ein Szenario
Szenario wählen
Was das bedeutet

Teil 03
03 Wer trägt die Last?

Verantwortung
verteilen.

Wenn ein KI-System Menschen schadet, passiert oft dasselbe: alle zeigen auf andere. Entwickler*innen auf die Daten. Unternehmen auf die Nutzer*innen. Regierungen auf die Technologie. Diese Diffusion von Verantwortung ist strukturell — und politisch gewollt.

Verantwortung ist keine binäre Frage — "schuldig" oder "nicht schuldig". Sie ist ein System aus verschiedenen Akteuren, die verschiedene Arten von Verantwortung tragen.

Akteur Art der Verantwortung Typische Ausrede Verantwortlichkeit
Entwickler*innen Technische Entscheidungen: Architektur, Daten, Metriken "Ich schreibe nur Code" Hoch
Unternehmen Deployment, Produktentscheidungen, Geschäftsmodell "Wir haben AGB" Hoch
Nutzer*innen Einsatz des Tools, Weitergabe von Outputs "Ich nutze nur, was angeboten wird" Mittel
Regierungen Regulierung, Standards, Durchsetzung "Technologie entwickelt sich zu schnell" Mittel
Daten-Lieferant*innen Qualität und Repräsentativität der Daten "Wir haben nur gesammelt" Mittel
Betroffene Gruppen Formell: keine — aber Konsequenzen zu 100% Keine Macht
Beobachtung

Die Gruppe mit der größten Betroffenheit hat typischerweise die geringste Kontrolle und Mitsprache. Das ist kein Zufall — es ist die Struktur von Macht in Tech-Systemen.

Algorithmen diskriminieren nicht,
weil Maschinen böse sind —
sondern weil Menschen es waren.
RREBELL KI-Ethik Modul
Teil 04
04 Prinzipien

Was ethische KI
bedeutet.

Es gibt viele Frameworks. Viele davon sind PR. Diese sechs Prinzipien sind eine praktische Grundlage — kein Heilmittel, aber ein ehrlicher Anfang.

01 — Fairness

Nicht für alle gleich falsch sein

Fairness bedeutet nicht, dass alle dasselbe bekommen. Es bedeutet, dass niemand systematisch schlechter behandelt wird — besonders nicht Gruppen, die ohnehin marginalisiert sind.

02 — Transparenz

Erklärbar, nicht unfehlbar

Systeme müssen erklärbar sein — für Betroffene, Entwickler*innen und Regulierer*innen. "Das Modell hat so entschieden" ist keine Erklärung. Es ist eine Absage an Verantwortung.

03 — Accountability

Jemand muss geradestehen

Wenn ein System Schaden anrichtet, muss es eine benennbare, erreichbare Verantwortlichkeit geben. Keine Struktur, die Verantwortung verteilt bis sie verschwindet.

04 — Gewissen

Bevor du deployed hast

Nicht danach. Nicht wenn die Presse berichtet. Gewissen bedeutet, die unbequemen Fragen zu stellen: Wen schadet das? Wessen Daten? Wer profitiert — und auf wessen Kosten?

05 — Partizipation

Betroffene einbeziehen

Die Menschen, die am meisten betroffen sind, müssen am meisten Mitspracherecht haben. Nicht als "Nutzertest" — als strukturelle Mitbestimmung. Das ist das schwierigste Prinzip.

06 — Do No Harm

Der Minimalstandard

Zumindest das. Kein System, das vorhersehbar Schaden anrichtet, sollte deployed werden — egal wie profitabel. Das klingt selbstverständlich. Es ist es nicht.

Teil 05
05 Übungen

Keine richtigen
Antworten. Fast.

Ethik ist keine Multiple-Choice-Prüfung — aber manche Antworten sind trotzdem besser als andere. Diese Übungen trainieren das kritische Denken, das du brauchst, um KI-Systeme zu hinterfragen — egal ob du sie baust, nutzt oder regulierst.

01 Bias erkennen — Wer fehlt im Datensatz? Analyse

Aufgabe: Ein Unternehmen entwickelt ein KI-System für Personalentscheidungen. Es wurde auf 10 Jahre historischer Einstellungsdaten trainiert. Das Unternehmen war in dieser Zeit zu 87% männlich besetzt. Das System empfiehlt nun für Führungspositionen überwiegend Männer.

Wähle die Aussage, die den Problem am besten beschreibt:

Das System funktioniert korrekt — es reflektiert historische Realität, und Realität ist objektiv.
Das Problem liegt bei den Bewerber*innen — mehr Frauen sollten sich bewerben.
Das System verstärkt historische Benachteiligung — historische Daten spiegeln vergangene Diskriminierung wider, nicht Qualifikation.
KI-Systeme können keinen Bias haben — Algorithmen sind mathematisch neutral.
02 Verantwortung zuweisen — Wer ist schuld? Position
Szenario

Ein Krankenhaus setzt ein KI-System ein, das Patientenrisiken bewertet. Das System weist schwarzen Patientinnen systematisch niedrigere Risikowerte zu als weißen Patientinnen mit identischer Gesundheitssituation — weil es auf historischen Kostendaten trainiert wurde und schwarze Patient*innen in den USA im Schnitt weniger Gesundheitsleistungen erhalten hatten (nicht weil sie gesünder waren, sondern weil sie weniger Zugang hatten). Ergebnis: schwarze Patientinnen werden seltener für intensive Behandlung vorgemerkt.

Wer trägt deiner Einschätzung nach die größte Verantwortung — und warum? Schreibe deine Antwort in 3–5 Sätzen.

Deine Einschätzung:
03 Ethische Prinzipien priorisieren — Was wiegt mehr? Reflexion

Aufgabe: Bringe diese ethischen Prinzipien in deine persönliche Prioritätsreihenfolge — zieh sie per Drag & Drop in die Reihenfolge, die du für richtig hältst. Es gibt keine objektiv korrekte Antwort, aber du wirst aufgefordert, deine Entscheidung zu erklären.

1Do No Harm — kein System, das vorhersehbar schadet
2Fairness — keine systematische Benachteiligung von Gruppen
3Transparenz — Entscheidungen müssen nachvollziehbar sein
4Accountability — immer eine benennbare Verantwortung
5Partizipation — Betroffene haben Mitspracherecht
6Datenschutz — Menschen kontrollieren ihre eigenen Daten
Warum hast du so priorisiert?
04 Das Dilemma — Sicherheit vs. Freiheit Position
Dilemma

Eine Stadt erwägt, ein KI-System zur Kriminalitätsprävention einzusetzen. Das System analysiert öffentliche Kameras und Verhaltensmuster, um "verdächtige Personen" zu markieren. Es hat eine 73% Trefferquote — aber eine 27% Falschpositivrate, und diese Fehlalarme betreffen überproportional Menschen of Color und queere Personen.

Das System würde laut Hersteller die Aufklärungsrate um 18% erhöhen.

Drei Personen argumentieren unterschiedlich. Wähle die Position, die am besten mit ethischer KI-Nutzung vereinbar ist:

Person A: "73% Trefferquote ist gut genug. Die Alternative ist höhere Kriminalität. Kollateralschäden sind akzeptabel."
Person B: "Das System sollte eingesetzt werden, aber nur mit menschlicher Kontrolle bei jeder Markierung."
Person C: "Ein System mit 27% Falschpositivrate, das marginalisierte Gruppen überproportional trifft, ist keine Sicherheitslösung — es ist ein Diskriminierungssystem. Es sollte nicht eingesetzt werden, bis systematischer Bias beseitigt ist."
Person D: "Technologie ist wertneutral — die Entscheidungen treffen die Polizist*innen, nicht das System."
05 Transparenz designen — Erkläre dem Betroffenen Design
Situation

Mariam, 34, wird von einem KI-System des Jobcenters als "gering beschäftigungsfähig" eingestuft. Ihre Leistungsansprüche werden daraufhin um 40% gekürzt. Sie bekommt kein Schreiben, das erklärt warum — nur ein Standardformular mit: "Ihre Einschätzung basiert auf einer automatisierten Entscheidung."

Schreibe eine Erklärung für Mariam — so, wie sie sein sollte: verständlich, ehrlich, ohne Juristensprache. Was hat das System entschieden? Auf welcher Grundlage? Was kann sie tun?

Denke daran: Transparenz bedeutet, dass die Person es wirklich verstehen kann — nicht, dass juristisch etwas erklärt wurde.

Deine Erklärung für Mariam:
06 Das Gewissens-Audit — Würdest du es bauen? Reflexion

Letzte Übung. Diese ist persönlich. Stell dir vor, du wirst als KI-Entwicklerin oder KI-Entscheiderin in einem der folgenden Projekte angestellt. Du wirst gut bezahlt. Welches würdest du annehmen — und welches nicht? Begründe kurz.

Projekt A

Ein System, das Schutzanträge von Geflüchteten vorsortiert und Risikoprofile erstellt. Ziel: Bearbeitungszeit senken. Bekannt: die Trainingsdaten spiegeln Vorurteile von Sachbearbeiter*innen wider.

Projekt B

Eine KI für queere Jugendliche, die anonyme Beratung und Ressourcen bietet — in Ländern, wo Homosexualität illegal ist. Risiko: Datenschutz und staatliche Überwachung.

Projekt C

Ein Empfehlungsalgorithmus für Nachrichtenartikel, der bewusst emotionalisierende Inhalte priorisiert — weil das die Verweildauer erhöht. Das Unternehmen sagt: "Wir liefern nur, was die Leute wollen."

Projekt D

Ein Audit-Tool, das bestehende KI-Systeme auf Bias untersucht und Berichte für Regulierer*innen erstellt. Geringer Profit. Großer Impact.

Deine Antwort:
Ethik in KI ist keine Frage
der Technologie.
Es ist eine Frage der Macht.

Wer entscheidet, was optimiert wird? Wer trägt die Konsequenzen? Wer hat eine Stimme? Das sind die echten Fragen hinter jedem KI-System.

← Zurück zum Learning Hub