Pratiche di intelligenza artificiale vietate
Identify AI deployments that cross the EU AI Act's red lines and must be stopped immediately.
Cos’è Pratiche di intelligenza artificiale vietate?
La legge dell’UE sull’intelligenza artificiale traccia chiare linee rosse. L’articolo 5 vieta completamente sei categorie di pratiche di intelligenza artificiale, con le sanzioni più elevate previste dal regolamento: fino a 35 milioni di euro o il 7% del fatturato globale. In questo esercizio, riconoscerai le implementazioni vietate all'interno della tua organizzazione, incluso il riconoscimento delle emozioni sul posto di lavoro, il punteggio sociale dei clienti e lo scraping non mirato di immagini facciali per database biometrici, e agirai correttamente prima che ogni sistema venga attivato.
Cosa imparerai in Pratiche di intelligenza artificiale vietate
- Identificare le sei categorie di pratiche di IA vietate ai sensi dell’articolo 5 della legge UE sull’IA
- Riconoscere le pratiche vietate anche se camuffate da strumenti benefici o programmi volontari
- Comprendere che il consenso del dipendente non prevale sui divieti dell'Articolo 5
- Conoscere il percorso di escalation corretto quando si scopre una distribuzione IA vietata
- Comprendere il livello di penalità per le pratiche vietate (35 milioni di euro / 7% di fatturato)
Pratiche di intelligenza artificiale vietate — Fasi della formazione
-
Le linee rosse assolute
L’articolo 5 della legge UE sull’IA definisce alcune pratiche di intelligenza artificiale che sono completamente vietate nell’UE. Nessuna eccezione, nessuna soluzione alternativa. Le sanzioni per le pratiche vietate rappresentano il livello più alto previsto dalla legge: fino a 35 milioni di euro o il 7% del fatturato annuo globale, a seconda di quale sia il valore più alto. Le sei categorie di IA proibite includono: Tecniche di IA manipolative o ingannevoli che distorcono il comportamento L'IA che sfrutta le vulnerabilità di gruppi specifici (età, disabilità, situazione sociale) Punteggio sociale: valutazione delle persone in base al comportamento sociale per trattamenti dannosi non correlati Identificazione biometrica remota in tempo reale negli spazi pubblici (con limitate eccezioni relative alle forze dell'ordine) Categorizzazione biometrica in base ad attributi sensibili (razza, opinioni politiche, orientamento sessuale) orientamento) Riconoscimento delle emozioni sul posto di lavoro e in contesti educativi
-
Giorno 1: l'e-mail del rilevatore dell'umore
Alice riceve un'e-mail dal direttore delle risorse umane che annuncia un nuovo programma pilota. L'e-mail descrive uno strumento di intelligenza artificiale che monitorerà i dipendenti durante le riunioni video.
-
Riconoscere la violazione
Si tratta del riconoscimento delle emozioni sul posto di lavoro , che è esplicitamente vietato ai sensi dell'articolo 5, paragrafo 1, lettera f), della legge UE sull'IA. Non importa che sia inquadrata come “iniziativa di benessere” o che la partecipazione sia descritta come volontaria. Il divieto è assoluto. Qualsiasi sistema di intelligenza artificiale che deduca emozioni da dati biometrici (espressioni facciali, tono della voce, linguaggio del corpo) sul posto di lavoro è vietato, indipendentemente dallo scopo dichiarato, dal livello di anonimizzazione o dal consenso dei dipendenti.
-
Passaggio alla conformità
Alice riconosce immediatamente il rischio di conformità. Risponde all'e-mail di David, segnalando il problema e copiando il responsabile della protezione dei dati.
-
Verifica della conoscenza
Prima di proseguire, assicuriamoci che il concetto sia chiaro.
-
Giorno 3: Il marcatore sociale
Due giorni dopo, Alice riceve un messaggio WhatsApp da un collega su una nuova funzionalità CRM preoccupante che il team di vendita ha attivato.
-
Individuazione del punteggio sociale
Alice legge attentamente il messaggio di Jamie. Emergono due dettagli: ai clienti viene assegnato un punteggio in base all’attività sui social media e i clienti con punteggi bassi vengono indirizzati verso code di supporto più lente.
-
Comprendere il punteggio sociale
Si tratta del punteggio sociale , vietato ai sensi dell'articolo 5, paragrafo 1, lettera c). È vietato utilizzare l’intelligenza artificiale per valutare le persone in base al loro comportamento sociale o alle loro caratteristiche personali – e quindi utilizzare tali punteggi per trattarle in modo dannoso. Anche se i dati provengono da interazioni aziendali legittime (resi di acquisto, ticket di supporto), aggregarli in un 'punteggio di affidabilità' che determina la qualità del servizio supera il limite. Il divieto si applica indipendentemente dal fatto che lo scoring avvenga nei confronti dei clienti esistenti o di quelli potenziali.
-
Giorno 5: Il raschietto per il viso
Due giorni dopo, Alice scopre che il team di marketing ha creato una demo interna dello strumento. Lo apre nel suo browser per rivedere su cosa hanno lavorato.
-
Raschiamento facciale non mirato
Lo strumento FaceWatch estrae le foto disponibili pubblicamente dai profili dei social media per creare un database di riconoscimento facciale. Ai sensi dell’articolo 5, paragrafo 1, lettera e), è esplicitamente vietato l’estrazione non mirata di immagini facciali da Internet o da filmati CCTV per creare o espandere database di riconoscimento facciale.