Divieto assoluto dell’uso dell’intelligenza artificiale (AI) per attività di sorveglianza biometrica, riconoscimento delle emozioni e polizia predittiva. Considerati ad alto rischio i sistemi di IA utilizzati per influenzare gli elettori nelle elezioni I sistemi di IA generativa come ChatGPT devono dichiarare come è stato generato il contenuto. Le norme mirano a promuovere un uso di IA affidabile e incentrato sull’essere umano e sulla tutela di salute, sicurezza, diritti fondamentali e democrazia dai suoi effetti dannosi.
Il voto a Strasburgo
La plenaria de Parlamento europeo ha adottato oggi a Strasburgo la sua posizione sulla proposta di Regolamento Ue sull’Intelligenza Artificiale (IA), con 499 voti a favore, 28 contrari e 93 astensioni. Il testo votato costituisce ora la posizione negoziale per avviare, oggi stesso, i colloqui con il Consiglio Ue e la Commissione (“trilogo”) per trovare un accordo sul testo definitivo. Il regolamento mira a garantire che l’IA sviluppata e utilizzata in Europa sia conforme ai diritti e ai valori dell’Ue, ad esempio in materia di supervisione umana degli algoritmi, di sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale. Il testo adotta un approccio basato sul rischio e stabilisce obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che può generare. In linea di principio, saranno vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (ovvero classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali, come certi casi in Cina).
Le pratiche vietate
Gli eurodeputati hanno ampliato l’elenco delle pratiche vietate che era stato incluso nella proposta originaria della Commissione, per includere divieti sugli usi intrusivi e discriminatori dell’IA, come: 1) l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; 2) i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); 3) i sistemi di “predittivi” usati nell’attività delle forze dell’ordine (basati su profilazione, ubicazione o comportamenti criminali passati); 4) i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; 4)l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare dei database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Applicazioni “ad alto rischio”
Gli emendamenti approvati dal Parlamento europeo chiedono poi che la classificazione delle applicazioni “ad alto rischio” includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. In particolare, sono stati aggiunti alla lista “ad alto rischio” i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme dei social media (quelli con oltre 45 milioni di utenti). Gli eurodeputati hanno aggiunto un intero capitolo che mancava nella proposta originaria della Commissione, presentata nell’ormai lontano aprile 2021, riguardo ai nuovi, sorprendenti e anche inquietanti sviluppi dell’IA “generativa”, utilizzata dai sistemi come ChatGPT, che sono in rapida evoluzione con continui progressi. Chiedono che i fornitori di “foundation models” alla base dell’IA generativa, siano obbligati a valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto) e a registrare i loro modelli nella banca dati dell’Ue prima della loro immissione sul mercato europeo.
Requisiti di trasparenza
Il Parlamento europeo chiede che ai sistemi di IA generativa che si basano su questi modelli, come ChatGPT, sia imposto il rispetto dei requisiti di trasparenza, dichiarando che il contenuto è stato generato dall’IA, quando è il caso, e rendendo possibile la distinzione delle cosiddette immagini “deep-fake” da quelle reali. Secondo gli eurodeputati, inoltre, dovrebbero essere previste delle salvaguardie per evitare la generazione di contenuti illegali, ed essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per il “training” dei sistemi di IA generativa. Per stimolare l’innovazione nel campo dell’IA e sostenere le Pmi, gli emendamenti del Parlamento europeo prevedono esenzioni per le attività di ricerca e le componenti dell’IA fornite con licenze “open-source”. Il regolamento promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima che venga messa in opera.
Infine, gli eurodeputati sostengono che va rafforzato il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi ad alto rischio con un impatto significativo sui loro diritti fondamentali, e chiedono di riformare il ruolo del nuovo Ufficio Ue per l’IA, che la proposta prevede di istituire, e che avrà il compito di monitorare l’attuazione di queste norme.