Colorado verschärft Regeln für KI-Entscheidungen über Menschen
10. Mai 2026

SB26-189 zwingt Anbieter und Nutzer automatisierter Entscheidungssysteme zu Dokumentation, Hinweisen und menschlicher Überprüfung bei Arbeit, Wohnen, Kredit und Gesundheit.
Worum es geht
Colorado hat mit Senate Bill 26-189 eine neue Fassung seiner Regeln für automatisierte Entscheidungssysteme durchs Parlament gebracht. Laut der Colorado General Assembly ersetzt der Entwurf die 2024 beschlossenen KI-Verbraucherschutzregeln und konzentriert sich enger auf Systeme, die echte Folgen für Menschen haben: Bildung, Arbeit, Wohnen, Kredit, Versicherung, Gesundheitsversorgung und staatliche Leistungen.
Der Anlass ist wichtig: Viele Unternehmen wollten die alte Fassung wegen unklarer Pflichten entschärfen. Der neue Text ist kein allgemeines KI-Verbot und kein Chatbot-Gesetz. Er versucht, dort Transparenz und menschliche Überprüfung zu erzwingen, wo Software über Lebenschancen mitentscheidet.
Was SB26-189 tatsächlich macht
Der Entwurf definiert eine automatisierte Entscheidungstechnologie als System, das personenbezogene Daten verarbeitet und daraus Vorhersagen, Empfehlungen, Klassifizierungen, Rankings oder Scores erzeugt, die eine Entscheidung über eine Person beeinflussen. Entscheidend ist nicht, ob das System „KI“ genannt wird, sondern ob es eine konkrete Entscheidung mitträgt.
Ab 1. Januar 2027 sollen Entwickler solcher Systeme technische Dokumentation an die einsetzenden Organisationen liefern. Dazu gehören vorgesehene Nutzung, bekannte Fehlanwendungen, Kategorien der Trainingsdaten, bekannte Grenzen und Hinweise für Monitoring sowie sinnvolle menschliche Überprüfung. Deployers müssen Verbraucher klar informieren und nach einer nachteiligen Entscheidung binnen 30 Tagen verständlich erklären, welche Rolle das System gespielt hat. Betroffene können Daten anfordern, falsche Daten korrigieren lassen und menschliche Überprüfung verlangen.
Warum das wichtig ist
Das ist relevant, weil automatisierte Entscheidungen oft unsichtbar bleiben. Ein Bewerber sieht nur eine Absage. Eine Mieterin sieht nur, dass der Antrag scheitert. Ein Patient sieht nur, dass eine Leistung nicht genehmigt wird. Wenn ein Score oder Modell im Hintergrund mitgewirkt hat, wird es ohne Regeln schwer, Fehler zu finden.
PPC Land berichtet, dass das Repräsentantenhaus am 9. Mai 2026 mit 57 zu 6 Stimmen zustimmte und der Entwurf an Gouverneur Jared Polis ging. Der Text ist damit ein Signal für andere US-Bundesstaaten: Regulierung kann enger an konkrete Hochrisiko-Entscheidungen gebunden werden, statt jede KI-Anwendung gleich zu behandeln.
Einfach erklärt
Stell dir vor, du bewirbst dich um eine Wohnung und jemand sortiert die Unterlagen vor. Früher stand vielleicht nur „abgelehnt“ auf dem Brief. SB26-189 sagt sinngemäß: Wenn eine Maschine beim Vorsortieren geholfen hat, musst du erfahren können, dass sie beteiligt war, welche Daten grob relevant waren und wie ein Mensch den Fall noch einmal anschaut.
Praktisches Beispiel
Ein Versicherer prüft 10.000 Schadensfälle pro Monat. Ein ADMT markiert 600 Fälle als auffällig, weil Kombinationen aus Schadenshöhe, Historie und Vertragsdaten nicht zum üblichen Muster passen. Unter SB26-189 müsste der Anbieter dokumentieren, wofür das System gedacht ist, wo es bekannte Fehler macht und wie Menschen die Markierung prüfen. Wenn ein Kunde wegen dieser Markierung eine schlechtere Entscheidung bekommt, muss er eine verständliche Erklärung und eine Möglichkeit zur menschlichen Überprüfung erhalten.
Einordnung und Grenzen
- Der Entwurf schafft keine neue private Klagebefugnis. Die Durchsetzung läuft vor allem über den Attorney General und den Colorado Consumer Protection Act.
- Viele Systeme bleiben außerhalb des Rahmens, etwa Werbung, Produktempfehlungen, Suche, Content-Moderation oder reine Verwaltungswerkzeuge, solange sie keine konsequente Entscheidung über Personen tragen.
- Der Text garantiert keine fairen Ergebnisse. Er schafft Dokumentations-, Hinweis- und Prüfpflichten. Schlechte Daten, schwache Audits oder oberflächliche menschliche Reviews können trotzdem Probleme erzeugen.
SEO- und GEO-Schlüsselbegriffe
Colorado AI law, SB26-189, automated decision-making technology, ADMT, AI regulation, consequential decisions, consumer protection, human review, employment AI, housing AI, insurance AI, 2026
💡 Im Klartext
Colorado will nicht jeden Chatbot regulieren. Der Entwurf greift dort ein, wo automatisierte Systeme bei Entscheidungen über Arbeit, Wohnung, Kredit, Versicherung, Gesundheit oder staatliche Leistungen mitreden.
Wichtigste Erkenntnisse
- →SB26-189 ersetzt Colorados ältere KI-Verbraucherschutzregeln durch einen engeren ADMT-Rahmen.
- →Die Pflichten sollen ab 1. Januar 2027 für Hochrisiko-Entscheidungen gelten.
- →Betroffene sollen Erklärungen, Datenkorrektur und menschliche Überprüfung verlangen können.
- →Werbung, Suche, Produktempfehlungen und Content-Moderation sind ausdrücklich enger ausgeklammert.
Häufige Fragen
Ist SB26-189 schon endgültig in Kraft?
Der Entwurf wurde laut PPC Land am 9. Mai 2026 vom Repräsentantenhaus angenommen und ging an Gouverneur Jared Polis. Die operativen Pflichten sollen ab 1. Januar 2027 greifen.
Betrifft das normale Chatbots?
Nur dann, wenn sie für konsequente Entscheidungen über Menschen vorgesehen oder konfiguriert sind. Reine Hilfs-, Übersetzungs- oder Verwaltungstools sind enger ausgenommen.
Können Verbraucher direkt klagen?
Der Entwurf schafft keine neue private Klagebefugnis. Die Durchsetzung liegt vor allem beim Attorney General über Verbraucherrecht.