Il 21 aprile l’Unione Europea ha pubblicato una proposta per il primo quadro giuridico per l’Intelligenza Artificiale (AI): The Artificial Intelligence Act. I concetti alla base del regolamento probabilmente daranno forma al futuro dell’AI e al modo in cui avrà un impatto sulle nostre vite.
L’UE si dimostra essere pioniera delle normative in campo tecnologico, infatti nel 2016 ha assunto una posizione in materia di GDPR, andando a regolamentare il modo in cui le aziende utilizzano i nostri dati e facendo diventare la legge dell’UE la base per la regolamentazione mondiale sulla privacy.
Considerando la veloce diffusione dell’AI all’interno di ogni settore e funzione aziendale, è dunque fondamentale avere una regolamentazione proveniente dalle autorità pubbliche.
The Artificial Intelligence Act è una proposta di regolamento sull’intelligenza artificiale avanzata dall’UE, volta a “garantire che i sistemi di AI immessi sul mercato dell’Unione siano sicuri e rispettino la normativa esistente sui diritti fondamentali e i valori dell’Unione”. I due pilastri principali del regolamento sono una classificazione basata sul rischio delle applicazioni di intelligenza artificiale e nuovi requisiti per i fornitori di sistemi di intelligenza artificiale.
L’UE ha classificato i sistemi di AI in 4 aree: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo.
Rischio inaccettabile: applicazioni la cui vendita è vietata nell’UE. Si tratta di applicazioni che possono danneggiare le persone manipolando il loro comportamento o sfruttando le loro vulnerabilità
Alto rischio: includono una vasta gamma di applicazioni. Tra cui: riconoscimento facciale in spazi privati; AI per l’istruzione, per l’occupazione, per regolare l’accesso ai servizi pubblici, per le forze dell’ordine, per la gestione della migrazione, dell’asilo e del controllo delle frontiere, per la gestione delle infrastrutture critiche. Tutte queste applicazioni possono ancora essere sviluppate e vendute, ma non senza una governance adeguata.
Le applicazioni a rischio limitato e minimo: sono sistemi di intelligenza artificiale che non possono danneggiare le persone. Un esempio potrebbe essere un filtro antispam per l’account email.
Bisognerà aspettare ancora prima dell’approvazione e dell’efficacia dell’atto, ma i primi risultati positivi sono stati ottenuti. Nello stesso periodo in cui l’UE ha pubblicato la sua proposta, la Federal Trade Commission (FTC) degli Stati Uniti ha pubblicato un blogpost in cui chiarisce che la mancanza di una regolamentazione specifica per l’AI non è una scusa per le aziende per vendere prodotti che danneggiano le persone.
È importante considerare che l’innovazione non è positiva per definizione, ma soprattutto dobbiamo essere consapevoli e d’accordo con gli attuali compromessi tra velocità di innovazione e sicurezza pubblica.