AI met een hoog risico: verplichtingen van de implementatie
Review and ensure compliance across all seven EU AI Act requirement areas before deploying a high-risk AI system.
Wat is AI met een hoog risico: verplichtingen van de implementatie?
Doorloop een echte nalevingsbeoordeling voor een AI-systeem met een hoog risico dat wordt ingezet voor prestatiebeoordelingen van werknemers. Leer de zeven vereiste gebieden waaraan moet worden voldaan vóór de implementatie en oefen met het identificeren van kritieke hiaten die de lancering blokkeren.
Wat je leert in AI met een hoog risico: verplichtingen van de implementatie
- Identificeer de zeven vereistengebieden voor AI-systemen met een hoog risico onder de EU AI Act
- Voer een nalevingsbeoordeling uit voor een AI-implementatie met een hoog risico
- Erken dat menselijk toezicht niet kan worden vervangen door nauwkeurigheidsmetingen
- Begrijp dat vóór het eerste gebruik een effectbeoordeling op de grondrechten verplicht is
- Reageer correct als er vóór de implementatie lacunes in de naleving worden ontdekt
AI met een hoog risico: verplichtingen van de implementatie — Trainingsstappen
-
AI-vereisten met hoog risico
AI-systemen met een hoog risico hebben de strengste verplichtingen op grond van de EU AI Act. Voordat organisaties er een kunnen implementeren, moeten ze voldoen aan eisen op zeven gebieden: Risicobeheer - Identificeer en beperk risico's gedurende de gehele levenscyclus van het systeem Gegevensbeheer - Zorg ervoor dat trainingsgegevens relevant, representatief en vrij van vooringenomenheid zijn Technische documentatie - Onderhoud gedetailleerde documentatie van het ontwerp en de werking van het systeem Records bijhouden - Schakel audittrails en automatisch in loggen Transparantie - Zorg voor duidelijke informatie aan implementeerders en betrokken personen Menselijk toezicht - Zorg ervoor dat mensen effectief toezicht kunnen houden op het systeem Nauwkeurigheid, robuustheid en cyberbeveiliging - Voldoen aan prestatie- en beveiligingsnormen Deze oefening doorloopt het proces van het beoordelen en garanderen van naleving voor een echte implementatie.
-
E-mail van de CISO
Er komt een e-mail binnen van James Morton, de CISO van Pinnacle Group. De AI-leverancier heeft het prestatiebeoordelingssysteem voor medewerkers geleverd en Alice moet de nalevingsbeoordeling voltooien voordat het live gaat. De e-mail linkt rechtstreeks naar het AI Systems Registry op het governanceportaal.
-
AI-systeemregister
Het AI Systems Registry wordt geladen met drie vermeldingen: PerformanceAI (het nieuwe risicovolle systeem gemarkeerd voor beoordeling), plus twee reeds compatibele systemen (EmailGuard en ChatAssist). Het register houdt het risiconiveau, de nalevingsstatus en de auditgeschiedenis bij voor elk AI-systeem bij Pinnacle Group.
-
Beoordeling van naleving
Het PerformanceAI-systeem vertoont duidelijke lacunes in de nalevingsstatus: de Fundamental Rights Impact Assessment is nog niet gestart, er is geen menselijke beoordelaar aangesteld en het databeheer wacht nog op beoordeling. Alice klikt op Compliance Assessment uitvoeren in het PerformanceAI-item om de gedetailleerde checklist voor dit systeem te openen.
-
Markeer de gaten
Alice doorloopt elk vereistegedeelte en markeert alleen de items waaraan NIET wordt voldaan. Data Governance kent een onopgeloste kloof: de representativiteit van trainingsgegevens in de demografische gegevens van werknemers is nooit beoordeeld. Menselijk toezicht heeft er nog een: er is geen gekwalificeerde menselijke beoordelaar toegewezen met overschrijvingsbevoegdheid. De overige secties zijn in goede staat en behoeven niets gemarkeerd te worden.
-
Vereiste van menselijk toezicht
Tijdens de beoordeling komt Alice een briefje van de leverancier tegen: 'Menselijk toezicht is niet nodig omdat het algoritme een nauwkeurigheid van 99,2% heeft in de prestatiescores.' Deze claim moet worden beoordeeld aan de hand van wat de EU AI Act feitelijk vereist.
-
Kritieke hiaten geïdentificeerd
Uit de nalevingsbeoordeling zijn drie kritieke lacunes naar voren gekomen die moeten worden opgelost voordat PerformanceAI live kan gaan: Geen effectbeoordeling op de grondrechten - De FRIA is niet uitgevoerd. Dit is verplicht vóór elke AI-implementatie met een hoog risico op grond van artikel 27. Geen aangewezen menselijke beoordelaar - Er is geen persoon toegewezen met de autoriteit en training om de prestatiescores van de AI terzijde te schuiven. Artikel 14 vereist effectief menselijk toezicht. Representativiteit van gegevens niet beoordeeld - Trainingsgegevens zijn niet geëvalueerd op representativiteit binnen de demografische gegevens van werknemers, waardoor een potentieel risico voor vooringenomenheid ontstaat op grond van artikel 10. Elk van deze lacunes vertegenwoordigt een falen van de wettelijke naleving. Het systeem kan pas worden ingezet als alle drie de problemen zijn opgelost.
-
E-mail voor herstel
Alice stelt een e-mail op aan de CISO waarin de lacunes in de naleving worden beschreven en waarin wordt aanbevolen de lancering uit te stellen totdat alle problemen zijn opgelost.
-
Naleving vóór implementatie
Bij een risicovolle AI-implementatie gaat het niet alleen om 'installeren en configureren'. Het is een gestructureerd complianceproces met doorlopende verplichtingen. De zeven vereistengebieden zijn geen selectievakjes waar je doorheen moet rennen; ze beschermen mensen die getroffen worden door AI-beslissingen. Belangrijkste punten: Aan alle zeven vereistengebieden moet onafhankelijk worden voldaan vóór implementatie: risicobeheer, gegevensbeheer, technische documentatie, bijhouden van gegevens, transparantie, menselijk toezicht en nauwkeurigheid/robuustheid/cyberbeveiliging. Een effectbeoordeling van de grondrechten is verplicht vóór het eerste gebruik van een AI-systeem met een hoog risico. Geen FRIA betekent geen inzet. Menselijk toezicht kan niet worden vervangen door nauwkeurigheid . Zelfs voor een systeem dat 99,9% accuraat is, is een aangewezen persoon met overschrijvingsbevoegdheid vereist. Als uw nalevingsbeoordeling hiaten aan het licht brengt, is de juiste reactie om de implementatie uit te stellen totdat deze zijn opgelost, en niet om deze later in te zetten en op te lossen.