In questo e in futuri post (presumibilmente molti) ci concentreremo sul regolamento europeo sull’intelligenza artificiale (AI Act), approvato dal Parlamento Europeo nel marzo 2024 e riassunto qui. Il testo completo può essere esplorato qui, mentre questo strumento permette di determinare quali parti del testo siano più rilevanti per un dato soggetto. Il pilastro fondamentale del regolamento, come si può leggere nel riassunto, è la classificazione dei sistemi IA in base al rischio.
Sistemi che presentano rischi considerati inaccettabili sono proibiti. Due esempi sono i modelli di punteggio sociale, usati per valutare o classificare individui o gruppi in base a comportamenti sociali o tratti personali, e che possono danneggiare o sfavorire le persone, e i sistemi che impiegano tecniche subliminali, manipolative o ingannevoli per condizionare i comportamenti e compromettere la capacità di prendere decisioni informate, causando danni significativi.
I sistemi classificati come ad alto rischio sono regolamentati. Un esempio sono i modelli utilizzabili dalle autorità pubbliche per valutare l’idoneità a benefici e servizi, inclusa la loro assegnazione, riduzione, revoca o recupero.
I sistemi di intelligenza artificiale a rischio limitato sono soggetti a obblighi meno severi. Sviluppatori e distributori devono assicurarsi che gli utenti finali siano consapevoli di interagire con un’intelligenza artificiale (come chatbot e deepfake).
I sistemi che pongono un rischio minimo (come videogiochi basati sull’IA e filtri antispam) non sono regolamentati (almeno per il momento, perché l’IA generativa, ad esempio, potrebbe cambiare il panorama).
Il regolamento pone la maggior parte degli obblighi in capo ai fornitori (sviluppatori) di sistemi di intelligenza artificiale ad alto rischio. Va sottolineato che per fornitori o sviluppatori si intendono coloro che vogliono immettere sul mercato o mettere in servizio nella UE questi sistemi, indipendentemente dal fatto che si trovino nel territorio dell’Unione o in un paese terzo. Ciò include i fornitori di paesi terzi che adoperano sistemi IA ad alto rischio i cui risultati sono utilizzati nella UE. Il regolamento chiarisce che per utenti si devono intendere persone fisiche o giuridiche che impiegano sistemi di intelligenza artificiale in un contesto professionale, e non agli utenti finali che subiscono gli effetti di un sistema senza necessariamente gestirlo o implementarlo. Coloro che usano sistemi di IA ad alto rischio hanno certi obblighi, anche se inferiori a quelli dei fornitori (sviluppatori). Di nuovo, questo si applica sia a utenti situati nel territorio dell’Unione, sia a utenti in paesi terzi, ma che impiegano sistemi IA i cui risultati vengono utilizzati nella UE.
Il regolamento contiene anche disposizioni che riguardano i sistemi IA cosiddetti “General Purpose” (GPAI) capaci di eseguire una vasta gamma di compiti indipendentemente dal modo in cui vengono immessi sul mercato, e che possono essere integrati in una varietà di sistemi o applicazioni. Specifiche norme riguardano i modelli GPAI che pongono rischi sistemici, definiti come quei modelli che durante l’addestramento hanno richiesto una quantità complessiva di calcolo maggiore di 1025 operazioni in virgola mobile (FLOP). ChatGPT 4, ad esempio, appare rientrare in questa categoria.
In conclusione, l’AI Act introduce un quadro normativo completo per la regolamentazione dei sistemi di IA nella UE, centrato sulla trasparenza, sulla responsabilità, sulla gestione dei rischi e sul bilanciamento tra innovazione e utilizzo responsabile. Ulteriori approfondimenti sulle sue implicazioni saranno oggetto di prossimi post.
