Politica

Intelligenza artificiale, proposte norme Ue per limitare rischi

La Commissione Ue ha proposto oggi un nuovo quadro normativo per garantire che i sistemi di intelligenza artificiale (IA) utilizzati nell’Ue siano sicuri, affidabili e trasparenti, che rispettino i valori etici dell’Unione e la privacy degli individui, che non rispondano a regole discriminatorie e che restino comunque sotto il controllo umano. La proposta classifica i sistemi di intelligenza artificiale in base al rischio, secondo una piramide a quattro strati che vede al vertice quelli caratterizzati da un “rischio inaccettabile”, e quindi da vietare, seguiti da quelli “a rischio elevato”, che dovranno rispettare dei requisiti e limiti obbligatori, poi il livello del “rischio limitato”, a cui corrisponderanno degli obblighi di trasparenza, e infine il livello “rischio minimo”, senza ulteriori obblighi giuridici, in cui rientra la maggior parte dei sistemi usati oggi.

Appartiene alla categoria del “rischio inaccettabile” tutto ciò che è considerato una chiara minaccia per i cittadini europei: dai sistemi di “social scoring” utilizzati da certi governi (ovvero la classifica dei cittadini in base al loro comportamento sociale, che penalizza ad esempio chi paga le fatture in ritardo o commette infrazioni stradali), ai giocattoli con assistenza vocale che incoraggiano manipolazioni del comportamento dei bambini, alle tecniche subliminali. Saranno proibiti anche i sistemi di identificazione biometrica remota in tempo reale utilizzati in spazi accessibili al pubblico, ma con alcune importanti eccezioni, che riguardano le indagini sui crimini compresi in una lista che corrisponde a quella del Mandato d’arresto europeo (32 reati), ma solo peri casi più gravi (se in caso di condanna sono previste pene detentive superiori a tre anni).

I sistemi di IA che rientrano nella categoria di “rischio elevato” non saranno proibiti, ma attentamente valutati, prima di essere accettati sul mercato e durante tutto il loro ciclo di vita. Per limitare i rischi, verranno sottoposti a limitazioni e obblighi. Appartengono a questa categoria i sistemi riguardanti: 1) le infrastrutture critiche (come i trasporti) che potrebbero mettere a rischio la vita e la salute dei cittadini; 2) le attività educative o di formazione professionale, laddove possono condizionare l’accesso all’istruzione e la carriera di un individuo, (per esempio determinando le votazioni degli esami); 3) la sicurezza dei prodotti (come le applicazioni nella chirurgia robotica); 4) l’accesso al lavoro e la gestione dei lavoratori (per esempio i software che selezionano i Cv dei candidati per le procedure di assunzione); 5) i servizi essenziali pubblici e privati (ad esempio l’accesso al credito bancario); 6) interferenze con i diritti fondamentali dei cittadini nell’applicazione della legge (per esempio nella valutazione dell’affidabilità delle prove in processi giudiziari); 7) l’immigrazione, l’asilo e la gestione dei controlli di frontiera (ad esempio la verifica dell’autenticità dei documenti di viaggio).

Al livello di “rischio limitato”, che richiede obblighi minimi di trasparenza, si ritrovano i sistemi di IA come i “chatbot”, che interagiscono con l’utente per consentirgli di prendere decisioni informate. L’utente deve sempre poter decidere se accettare, o se rinunciare all’utilizzo dell’applicazione. La categoria di “rischio minimo” o nullo, infine, comprende la grande maggioranza degli attuali sistemi di IA, per esempio le applicazioni gratuite per i videogiochi o i filtri per lo spam nella posta elettronica. Il nuovo regolamento Ue “garantirà che i cittadini europei possano fidarsi di ciò che l’intelligenza artificiale ha da offrire, grazie a norme proporzionate e flessibili che affronteranno i rischi specifici posti dai sistemi di IA, e fisseranno i più elevati standard a livello mondiale”, afferma la Commissione in una nota. Le nuove regole, con l’approccio basato sulle diverse categorie di rischio, saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, dopo la loro approvazione in co-decisione da parte dell’Ue e del Parlamento europeo. Oltre al regolamento, l’Esecutivo comunitario ha proposto oggi anche un “piano coordinato” che delinea i cambiamenti strategici e gli investimenti necessari a livello degli Stati membri per rafforzare la posizione di primo piano che detiene l’Europa nello sviluppo dell’intelligenza artificiale, affinché sia “antropocentrica, sostenibile, sicura, inclusiva e affidabile”.

“Riguardo all’intelligenza artificiale, la fiducia non è facoltativa, è indispensabile. Queste regole rappresentano una svolta, che consentirà all’Ue di guidare lo sviluppo di nuove norme globali per garantire che l’IA possa essere considerata affidabile”, ha sottolineato Margrethe Vestager, vicepresidente esecutiva della Commissione responsabile per la Concorrenza e per l’Europa digitale, presentando oggi la proposta. “Definendo così le norme possiamo spianare la strada a una ‘tecnologia etica’ in tutto il mondo”, ha continuato Vestager, e allo stesso tempo “garantire che l’Ue rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all’innovazione e interverranno ove strettamente necessario: quando sono in gioco – ha concluso – la sicurezza e i diritti fondamentali dei cittadini dell’Ue”. “L’IA esiste da decenni, ma ora – ha aggiunto il commissario al Mercato Unico, Thierry Breton – sono possibili nuove capacità alimentate dalla potenza di calcolo, che offrono un enorme potenziale in tanti settori diversi tra cui la sanità, i trasporti, l’energia, l’agricoltura, il turismo o la cibersicurezza”. “Ci sono però – ha avvertito Breton – anche una serie di rischi; queste proposte mirano a rafforzare la posizione dell’Europa quale polo globale di eccellenza nell’intelligenza artificiale dai laboratori al mercato, a garantire che l’IA in Europa rispetti i nostri valori e le nostre regole, e a sfruttarne – ha concluso il commissario – il potenziale per uso industriale”. askanews

Segui ilfogliettone.it su facebook
© RIPRODUZIONE RISERVATA
Se avete correzioni, suggerimenti o commenti scrivete a redazione@ilfogliettone.it
Condividi
Pubblicato da