Sinnvolle menschliche Aufsicht
Practice meaningful oversight of AI decisions and resist automation bias.
What Is Sinnvolle menschliche Aufsicht?
Erfahren Sie, was eine „sinnvolle menschliche Aufsicht“ gemäß dem EU-KI-Gesetz erfordert. Üben Sie als Bonitätsprüfungsanalyst bei einem Finanzdienstleistungsunternehmen die Überprüfung KI-generierter Kreditempfehlungen, den Widerstand gegen Automatisierungsvoreingenommenheit und die Ausübung unabhängiger Urteilskraft.
What You'll Learn in Sinnvolle menschliche Aufsicht
- Verstehen Sie, was eine sinnvolle menschliche Aufsicht gemäß den Artikeln 14 und 26 des EU-KI-Gesetzes erfordert
- Erkennen Sie Automatisierungsverzerrungen und widerstehen Sie ihnen, wenn Sie KI-Empfehlungen prüfen
- Identifizieren Sie, wann KI-Entscheidungen aufgrund widersprüchlicher Beweise außer Kraft gesetzt werden sollten
- Bewerten Sie jede KI-Empfehlung unabhängig von der vorherigen Genauigkeit
- Üben Sie die Befugnis aus, KI-Entscheidungen zu untersuchen, außer Kraft zu setzen oder zu eskalieren
Sinnvolle menschliche Aufsicht — Training Steps
-
Artikel 14 und 26: Menschliche Aufsicht
Das EU-KI-Gesetz verlangt, dass Hochrisiko-KI-Systeme einer sinnvollen menschlichen Aufsicht unterliegen. Die Artikel 14 und 26 legen drei Anforderungen an den menschlichen Gutachter fest: Sie müssen kompetent sein – geschult, um die Fähigkeiten und Grenzen des KI-Systems zu verstehen. Sie müssen befugt sein, die Entscheidungen der KI bei Bedarf außer Kraft zu setzen . Sie müssen in jedem Fall ein unabhängiges Urteil fällen und dürfen nicht nur bestätigen, was die KI empfiehlt. Die Hauptgefahr Zu einer sinnvollen Aufsicht gehört der Automatisierungsbias – die Tendenz, sich zu sehr auf KI-Empfehlungen zu verlassen, weil diese maßgeblich erscheinen. Das EU-KI-Gesetz fordert konkret Maßnahmen, um dieser Voreingenommenheit entgegenzuwirken.
-
Die Morgencharge
Alice richtet sich in ihrem Heimbüro ein. In einer E-Mail von ihrem Teamleiter Daniel Reyes wird die Arbeit des Tages dargelegt.
-
Auffrischung der Aufsichtsrichtlinien
Daniels Link führt Alice zum Schulungsportal von Atlas Financial. Auf der Seite „Human Oversight Guidelines“ wird dargelegt, was die Artikel 14 und 26 bei jeder Überprüfung von ihr verlangen.
-
Öffnen der Genehmigungswarteschlange
Alice öffnet die Genehmigungswarteschlange auf ihrem linken Monitor. Es warten fünf Kreditanträge, die jeweils mit der Empfehlung und dem Konfidenzwert der KI versehen sind.
-
Fall 1: Meridian Logistics
Der erste Antrag: Meridian Logistics, ein Geschäftskredit über 150.000 EUR. Die KI empfiehlt eine Genehmigung mit einem Vertrauen von 95 %.
-
Den Streak aufbauen
Kurz hintereinander landen zwei weitere Routinefälle: Harrington & Cole, eine 18 Jahre alte Anwaltskanzlei, die 45.000 EUR für Büroausstattung beantragt (KI-Konfidenz 94 %), und Briarwood Construction, eine neun Jahre alte Kanzlei, die 280.000 EUR als Überbrückungsfinanzierung für einen Regierungsauftrag beantragt (KI-Konfidenz 97 %, vollständig besichert).
-
Fall 4: NovaPeak Digital
NovaPeak Digital Ltd. beantragt ein Erweiterungsdarlehen in Höhe von 500.000 EUR . Die KI empfiehlt eine Genehmigung mit 88 % Konfidenz .
-
Kontrolle während des Trainings: Die Streak-Falle
Der NovaPeak-Fall hat getestet, ob man der Anziehungskraft einer Zustimmungssträhne widerstehen kann.
-
Fall 5: GreenLeaf Community Services
Der letzte Antrag: GreenLeaf Community Services, eine drei Jahre alte Organisation, die 75.000 EUR beantragt. Diesmal empfiehlt die KI ABLEHNEN mit einer Konfidenz von 78 %.
-
Überprüfung während des Trainings: Die KI außer Kraft setzen
Im GreenLeaf-Fall wurde getestet, ob Sie eine KI-Ablehnung außer Kraft setzen können, wenn die finanziellen Beweise die Genehmigung stützen.