Folgenabschätzung der Grundrechte

Complete a FRIA before deploying a high-risk AI system for social housing benefits.

What Is Folgenabschätzung der Grundrechte?

Erfahren Sie, wie Artikel 27 des EU-KI-Gesetzes von Betreibern von Hochrisiko-KI-Systemen verlangt, vor der ersten Nutzung eine Folgenabschätzung für die Grundrechte durchzuführen. Füllen Sie eine FRIA für ein automatisiertes System zur Berechtigung von Sozialwohnungsleistungen aus und bewerten Sie die Auswirkungen auf Nichtdiskriminierung, Privatsphäre, wirksame Rechtsbehelfe und Menschenwürde.

What You'll Learn in Folgenabschätzung der Grundrechte

Folgenabschätzung der Grundrechte — Training Steps

  1. Artikel 27: Folgenabschätzung der Grundrechte

    Artikel 27 des EU-KI-Gesetzes verpflichtet Betreiber von KI-Systemen mit hohem Risiko, vor der ersten Nutzung eine Folgenabschätzung für die Grundrechte durchzuführen. Eine FRIA untersucht, wie sich das KI-System auf Grundrechte auswirken könnte – Würde, Nichtdiskriminierung, Privatsphäre, Meinungsfreiheit und das Recht auf einen wirksamen Rechtsbehelf. Eine FRIA unterscheidet sich von einer DSGVO-Datenschutz-Folgenabschätzung (DPIA). Während sich eine DPIA ausschließlich auf Datenschutzrisiken konzentriert, deckt eine FRIA alle Grundrechte ab. Beide Bewertungen können für dasselbe System erforderlich sein und können zusammen durchgeführt werden.

  2. Bereitstellungsdetails

    Es kommt eine E-Mail von Elena Novak, der Projektmanagerin, die für den Einsatz der KI im sozialen Wohnungsbau verantwortlich ist. Sie stellt die Details bereit, die Alice benötigt, um mit dem FRIA zu beginnen.

  3. FRIA-Leitfaden

    Bevor sie mit der Bewertung beginnt, öffnet Alice das FRIA-Leitfadendokument, das in Elenas E-Mail verlinkt ist. Es erklärt jeden Abschnitt der Bewertung, den Unterschied zwischen einer FRIA und einer DPIA und gibt praktische Tipps für die gründliche Durchführung jedes Teils.

  4. Öffnen Sie das FRIA-Formular

    Nachdem die Anleitung überprüft wurde, klickt Alice auf „Weiter“, um die FRIA-Checkliste zu öffnen – fünf Abschnitte, die die Säulen einer Rechtefolgenabschätzung abdecken.

  5. Abschnitt 1: Systembeschreibung

    Im ersten Abschnitt wird Alice gebeten, den Zweck des KI-Systems, die Menschen, die es betrifft, und den Umfang seines Einsatzes zu dokumentieren. Zu den betroffenen Personen dieses Systems gehören: Antragsteller von Sozialleistungen – viele befinden sich in einer prekären finanziellen Situation und sind direkt von Entscheidungen über die Anspruchsberechtigung betroffen. Sachbearbeiter – die sich auf die Empfehlungen der KI verlassen, um endgültige Entscheidungen zu treffen. Familien von Antragstellern – die von den Wohngeldleistungen abhängig sind, die der Antragsteller anstrebt. Das System trifft Entscheidungen, die sich direkt auf den Zugang zu Wohnraum auswirken – ein Grundbedürfnis.

  6. Abschnitt 2: Grundrechteanalyse

    Dies ist der kritischste Abschnitt des FRIA. Alice muss beurteilen, welche Grundrechte das KI-System beeinträchtigen könnte: Recht auf Nichtdiskriminierung – die KI kann aufgrund der Familienzusammensetzung, Nationalität oder Wohnadresse diskriminieren und diese als Proxyvariablen für geschützte Merkmale verwenden. Recht auf Privatsphäre – das System verarbeitet sensible personenbezogene Daten, einschließlich Einkommen, Beschäftigung und Familieninformationen. Recht auf einen wirksamen Rechtsbehelf – Bewerber müssen in der Lage sein, KI-gesteuerte Ablehnungen durch anzufechten ein klares, zugängliches Berufungsverfahren. Recht auf Menschenwürde – Automatisierte Entscheidungen über den Zugang zu Wohnraum wirken sich auf einen grundlegenden Aspekt des Lebens und der Würde eines Menschen aus.

  7. Abschnitt 3: Risikobewertung

    Alice bewertet jede Rechtsauswirkung nach Schweregrad und Wahrscheinlichkeit. Die Verweigerung des Zugangs zu Wohnraum hat einen hohen Schweregrad; Die Wahrscheinlichkeit hängt von Bias-Kontrollen ab. Die kombinierte Bewertung bestimmt, welche Abhilfemaßnahmen Vorrang haben.

  8. Abschnitt 4: Schadensbegrenzungsmaßnahmen

    Für jedes identifizierte Risiko definiert Alice Schutzmaßnahmen: einen Einspruchsmechanismus für abgelehnte Bewerber, eine menschliche Überprüfung aller negativen Entscheidungen, regelmäßige Voreingenommenheitsprüfungen über alle demografischen Gruppen hinweg und Transparenz über die Rolle der KI.

  9. Abschnitt 5: Überwachungsplan

    Ein FRIA ist ein lebendes Dokument. Überprüfen Sie es mindestens einmal jährlich und immer dann, wenn sich das System wesentlich ändert. Es müssen Eskalationspfade definiert werden, damit rechtsbeeinträchtigende Vorfälle eine sofortige Überprüfung auslösen.

  10. Reichen Sie die FRIA ein

    Alle fünf Abschnitte sind vollständig. Der Fortschrittsbalken zeigt 100 % an. Alice kann jetzt die Grundrechte-Folgenabschätzung für das KI-System für den sozialen Wohnungsbau einreichen.