La Commissione UE ha proposto di recente un Regolamento sull’Intelligenza Artificiale. Si tratta di nuove regole volte a trasformare l’Europa nel polo mondiale per un’Intelligenza Artificiale affidabile. Un nuovo approccio al rischio come fattore trainante della normativa UE sull’IA
Nell'articolo
Cosa garantirà l’Unione Europea
L’Unione tra il primo quadro giuridico sull’Intelligenza Artificiale mai realizzato e un nuovo piano coordinato con gli Stati membri, garantirà la sicurezza e i diritti fondamentali di persone e imprese. Rafforzerà nel contempo l’adozione dell’Intelligenza Artificiale, gli investimenti e l’innovazione nel settore in tutta l’UE.
Le nuove regole sulle macchine integreranno questo approccio adattando le regole di sicurezza per far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti.
Il Regolamento sull’Intelligenza Artificiale
Il nuovo Regolamento sull’Intelligenza Artificiale (IA) garantirà che i cittadini europei possano fidarsi di ciò che l’IA ha da offrire, grazie a regole proporzionate e flessibili che:
- affronteranno i rischi specifici posti dai sistemi di IA;
- fisseranno i più elevati standard a livello mondiale.
L’Europa nello sviluppo dell’Intelligenza Artificiale
Il piano coordinato delinea i cambiamenti strategici e gli investimenti necessari a livello di Stati membri. Questo al fine di rafforzare la posizione di primo piano dell’Europa nello sviluppo di un’Intelligenza Artificiale che sia:
- antropocentrica,
- sostenibile,
- sicura,
- inclusiva,
- affidabile.
L’applicazione delle nuove regole
Le nuove regole saranno applicate direttamente e nello stesso modo in tutti gli Stati Membri; sulla base di una definizione di Intelligenza Artificiale adeguata alle esigenze future. Le nuove regole seguono un approccio basato sul rischio.
Quattro tipologie di rischio
In particolare si fa riferimento a 4 tipologie di rischio:
Rischio inaccettabile
I sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti.
Ad esempio: giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori; sistemi che consentono ai governi di attribuire un “punteggio sociale”
Rischio alto
Sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:
– in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
– nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
– in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
– nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
– in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
– in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
– nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio);
– nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti);
– tutti i sistemi di identificazione biometrica remota.
Rischio limitato
I sistemi di IA con specifici obblighi di trasparenza. Quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina; in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.
Rischio minimo
La proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di Intelligenza Artificiale rientra in questa categoria. Il progetto di Regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.
Nell’ottica di un approccio al rischio per i diritti e le libertà delle persone fisiche, a seguito di una violazione, il rischio viene esaminato in maniera diversa rispetto alla valutazione d’impatto sulla protezione dei dati. Quest’ultima considera tanto i rischi del trattamento dei dati svolto come pianificato, quanto quelli in caso di violazione.
Valutazione di un evento ipotetico
Nel considerare una potenziale violazione, esamina in termini generali la probabilità che la stessa si verifichi e il danno all’interessato che potrebbe derivarne; in altre parole, si tratta di una valutazione di un evento ipotetico.
Valutazione di un evento verificatosi
Nel caso di una violazione effettiva, l’evento si è già verificato; quindi l’attenzione si concentra esclusivamente sul rischio risultante dell’impatto di tale violazione sulle persone fisiche.
Di conseguenza, nel valutare il rischio per le persone fisiche derivante da una violazione, il titolare del trattamento deve considerare le circostanze specifiche della violazione; inclusa la gravità dell’impatto potenziale e la probabilità che tale impatto si verifichi.
I criteri della valutazione
Pertanto la valutazione deve tener conto dei seguenti criteri:
– tipo di violazione
– natura, carattere sensibile e volume dei dati personali
– facilità di identificazione delle persone fisiche
– gravità delle conseguenze per le persone fisiche
– caratteristiche particolari dell’interessato
– caratteristiche particolari del titolare del trattamento di dati
– numero di persone fisiche interessate.
Avvocato Michele Iaselli
Dello stesso autore, puoi consultare:
Manuale di diritto di INTERNET
La gestione della privacy in periodi di emergenza
Le nuove disposizioni nazionali sulla protezione dei dati personali
Per un approfondimento sul tema dell’Intelligenza Artificiale puoi consultare il volume:
Etica delle intelligenze artificiali per leader aziendali e startupper
Avvocato, funzionario del Ministero della Difesa, docente a contratto di informatica giuridica all’Università di Cassino e collaboratore della cattedra di informatica giuridica alla LUISS ed alla Federico II. Presidente dell’Associazione Nazionale per la Difesa della Privacy (ANDIP). Relatore di numerosi convegni, ha pubblicato diverse monografie e contribuito ad opere collettanee in materia di privacy, informatica giuridica e diritto dell’informatica con le principali case editrici.
Scopri tutte le pubblicazioni di Michele Iaselli edite da EPC Editore