AI Act: il Regolamento Europeo sull’Intelligenza Artificiale

AI Act: il Regolamento Europeo sull'Intelligenza Artificiale

AI Act: cosa è il primo regolamento sull’Intelligenza Artificiale

Che l’Intelligenza Artificiale stia una tecnologia con un potenziale applicativo molto ampio, che può essere utilizzata praticamente in ogni campo, dalla sanità all’industria, è ormai ampiamente riconosciuto. Tuttavia lo sviluppo e l’uso dell’IA hanno sollevato una serie di preoccupazioni, dalla privacy dei dati ai temi legati alla sicurezza, passando per la trasparenza e la non discriminazione che rendono necessario delineare un quadro normativo che garantisca un impiego etico, sicuro e responsabile di quello che a tutti gli effetti è uno strumento tanto potente quanto complesso.

L’Intelligenza Artificiale può portare molti benefici, ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, un’energia più conveniente e sostenibile, ma anche una produzione più efficiente. Però può anche essere usata per scopi ritenuti dannosi per gli individui, le comunità e le società, come la discriminazione o la perpetrazione degli squilibri di potere esistenti. È importante ricordare che i risultati prodotti dall’Intelligenza Artificiale dipendono da come viene progettata e da quali dati vengono immessi. Ciò significa che se non vengono rispettati requisiti di trasparenza, equità, sicurezza e protezione, le applicazioni di IA possono portare a errori o abusi.

In questo contesto si inserisce il lavoro del Parlamento europeo, il principale ramo legislativo dell’Unione Europea, che lo scorso 14 giugno ha approvato un progetto di legge noto come A.I. Act con cui si introducono restrizioni su quelli che sono considerati gli usi più rischiosi dell’IA al

fine di garantire migliori condizioni per lo sviluppo e l’adozione di questa innovativa tecnologia.

La legge limiterebbe fortemente l’uso dei software di riconoscimento facciale e richiederebbe ai produttori di sistemi di I.A. come il chatbot ChatGPT, di divulgare maggiormente i dati utilizzati per creare i loro programmi.

L’importante passo compiuto dall’Unione Europea verso l’approvazione di quella che sarebbe la prima legge per regolamentare l’Intelligenza Artificiale costituirebbe un precedente da seguire per altri Paesi. L’Artificial Intelligence Act è infatti una normativa molto ambiziosa che cerca di tenere conto delle implicazioni sociali, economiche ed etiche dell’Intelligenza Artificiale, incoraggiandone al contempo lo sviluppo.

Che cosa prevede  l’Artificial Intelligence Act?

La proposta normativa dell’UE mira a fornire agli sviluppatori, agli operatori di IA e agli utenti chiari requisiti e obblighi relativi agli usi dell’Intelligenza Artificiale. Allo stesso tempo, mira a ridurre gli oneri amministrativi e finanziari per le imprese, in particolare le piccole e medie imprese (PMI).

La proposta adotta un approccio “basato sul rischio” per regolamentare l’IA, concentrandosi sulle applicazioni con il maggior potenziale di danno umano, e individua quattro diversi livelli di rischio delle applicazioni dell’Intelligenza Artificiale:

1.Rischio inaccettabile

I sistemi di IA considerati a rischio inaccettabile, e quindi vietati, sono quelli che costituiscono una minaccia per le persone. Rientrano nella categoria la manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, come i bambini, la classificazione sociale delle persone in base al comportamento, al livello socio-economico e alle caratteristiche personali, e i sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Potrebbero essere ammesse alcune eccezioni a queste regole come, ad esempio, i sistemi di identificazione biometrica a distanza “post”, dove l’identificazione avviene dopo un significativo ritardo, che saranno consentiti per perseguire reati gravi ma solo previa autorizzazione del tribunale.

2.Alto rischio

Saranno considerati ad “alto rischio” quei sistemi di IA che influiscono in modo negativo sulla sicurezza o sui diritti fondamentali. Il Regolamento, in questo caso, individua due diversi gruppi:

1) Sistemi di IA utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori;

2) Sistemi di IA che rientrano in aree specifiche dovranno essere registrati in un database dell’UE:

  • Identificazione e categorizzazione biometrica di persone naturali;
  • Gestione e funzionamento di infrastrutture critiche;
  • Istruzione e formazione professionale;
  • Occupazione, gestione dei lavoratori e accesso all’autoimpiego;
  • Accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi;
  • Forze dell’ordine;
  • Gestione delle migrazioni, asilo e controllo delle frontiere;
  • Assistenza nell’interpretazione e applicazione legale della legge.

Tutti i sistemi di IA ad alto rischio dovranno essere valutati durante tutto il loro ciclo di vita e prima di finire sul mercato.

3.Rischio limitato

Questo tipo di sistemi di IA dovranno rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Gli utenti, infatti, dovranno essere sempre informati quando interagiscono con l’IA, come ad esempio i chatbot, in modo da scegliere se continuare a utilizzarla o se fare un passo indietro. Questo gruppo include i sistemi di IA che sono in grado di generare o manipolare contenuti di immagini, audio o video (ad esempio, deepfake).

4.Rischio minimo o nullo

In questo caso non sono previsti obblighi ed è consentito il libero utilizzo dell’IA. Sono considerati sistemi a rischio minimo o nullo le applicazioni come videogiochi abilitati per l’IA o i filtri antispam.

Per quanto concerne invece l’IA generativa, come la già citata ChatGPT, dovrà rispettare requisiti di trasparenza, rivelare che il contenuto è stato generato da un’IA, progettare il modello in modo da impedire la generazione di contenuti illegali e pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

L’approvazione definitiva dall’Unione Europea dovrebbe arrivare a fine anno e questo significa che il Regolamento sull’Intelligenza Artificiale potrebbe entrare in vigore nel 2024.

Articolo precedenteChi sono i facilitatori digitali per l’inclusione
Articolo successivoBIM Management e BIM Collaboration per la digitalizzazione del settore edile