Il Regolamento sull’IA della UE #2: Pratiche vietate – Parte 1

L’art. 5 del Regolamento sull’Intelligenza Artificiale della UE elenca e descrive esplicitamente le pratiche vietate riguardanti l’uso dell’IA. Questo articolo stabilisce limiti legali fondamentali nell’uso delle applicazioni IA, e riflette anche standard etici essenziali. In questa serie di post, esamineremo uno per uno questi divieti, a partire da quello nel comma 1, punto (a) dell’articolo. Questa clausola afferma che è vietato vendere, distribuire o utilizzare sistemi IA che impiegano tecniche subliminali, manipolative o ingannevoli per alterare il comportamento di una persona o di un gruppo di persone, in modo tale da compromettere significativamente la loro capacità di prendere decisioni informate, portandoli a fare scelte che normalmente non farebbero e causando, o rischiando di causare, danni significativi alla persona che usa il sistema, a un’altra persona o a un gruppo di persone. A mio avviso, l’essenza di questa norma sta nei quattro punti che seguono.

Intenzionalità: la clausola implica – come aspetto essenziale per determinare la conformità al regolamento e la responsabilità legale – che le tecniche subliminali, manipolative o ingannevoli siano intenzionalmente integrate nel sistema IA.

Obiettivo: le tecniche sopra menzionate devono essere specificamente utilizzate per alterare il comportamento di una persona o di un gruppo di persone, compromettendo significativamente la loro capacità di prendere decisioni informate. Minare le capacità decisionali è quindi il meccanismo attraverso il quale operano questi sistemi IA vietati.

Conseguenze: le tecniche manipolative impiegate devono portare gli individui a prendere decisioni che, normalmente, non avrebbero preso se i sistemi IA considerati non fossero stati utilizzati. Questo aspetto sottolinea la relazione causa-effetto tra l’uso di un sistema e l’alterazione di un processo decisionale.

Requisito del Danno: le decisioni influenzate dalle tecniche di cui si è detto devono causare o rischiare di causare danni significativi all’utente o ad altri. Questo requisito collega le considerazioni precedenti a risultati tangibili, in termini di potenziale impatto nel mondo reale.

L’intenzione di questa clausola è prevenire il dispiegamento di sistemi IA progettati per diventare attori sociali pericolosi, ma il diavolo, come sempre, si nasconde nei dettagli. Ad esempio, termini come “subliminale”, “manipolativo”, “ingannevole” e “danno significativo” sono in qualche modo soggettivi e aperti a interpretazioni. Questa vaghezza può portare a sfide nell’applicazione della norma e potrebbe richiedere lunghe analisi legali per essere chiarita. Cosa ancora più importante, dimostrare che una decisione non sarebbe stata presa senza l’uso di un certo sistema IA, anche se malevolo, può risultare difficile. Infatti, stabilire un chiaro legame causale tra l’utilizzo del sistema e una decisione specifica è complesso. Le decisioni sono influenzate da una molteplicità di fattori—personali, sociali, economici e psicologici. Distinguere l’impatto dell’IA da quello degli altri fattori non è semplice. Inoltre, raccogliere prove per dimostrare che una decisione è stata condizionata dall’IA può comportare difficoltà tecniche o di altro tipo. Potrebbe essere necessario, ad esempio, accedere a informazioni protette o addirittura secretate (dati compresi) su come un sistema IA è stato effettivamente utilizzato all’interno di un processo decisionale.

Come riflessione finale, consideriamo questa versione della norma: è vietato vendere, distribuire o utilizzare un sistema IA che impiega tecniche subliminali, manipolative o ingannevoli per distorcere il comportamento di una persona o di un gruppo di persone, in modo tale da compromettere significativamente la loro capacità di prendere decisioni informate, portandoli a fare scelte che normalmente non farebbero, causando o rischiando di causare un bene significativo alla persona che usa il sistema, a un’altra persona o a un gruppo di persone. Includereste anche questa versione nel Regolamento sull’IA dell’UE? (La mia risposta è sì: a mio avviso, la capacità di prendere decisioni informate prevale su qualsiasi buona intenzione).


Leave a comment