In questo post continuiamo l’esame dell’Articolo 5 dell’EU Artificial Intelligence Act, che stabilisce limiti legali fondamentali e standard etici per l’uso delle applicazioni di IA nel territorio della UE. Nel post precedente, abbiamo considerato un divieto volto a prevenire l’implementazione di sistemi di IA progettati per divenire attori sociali pericolosi, compromettendo la capacità delle persone di prendere decisioni informate e causando loro – effettivamente o probabilmente – danni significativi.
La clausola al comma 1, punto (b) dell’articolo è in qualche misura simile, in quanto vieta “l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA che sfruttino qualsiasi vulnerabilità di una persona o di un gruppo specifico di persone, dovuta all’età, a una disabilità o a una determinata situazione sociale o economica, con l’obiettivo o l’effetto di distorcere materialmente il comportamento di quella persona, o di una persona di quel gruppo, in un modo che causa – o è ragionevolmente probabile che causi – danni significativi a quella o ad altre persone.” In questo caso, l’attenzione è chiaramente rivolta a proteggere individui o gruppi le cui vulnerabilità possono essere sfruttate dai sistemi di IA, portando a una distorsione del loro comportamento che causa o è ragionevolmente probabile che causi danni.
Il divieto considerato nel post precedente sottolineava l’intenzionalità nella progettazione di sistemi di IA potenzialmente dannosi, ma in questo caso la distorsione del comportamento causata da un determinato sistema può essere semplicemente un effetto anche indesiderato del suo uso. Questo può essere interpretato come un incentivo, per produttori e fornitori di software IA, a valutare meglio e in anticipo le possibili conseguenze dell’uso di tale software. Inoltre è apprezzabile, a mio avviso, che le vulnerabilità menzionate nella clausola non siano solo relative a disabilità, ma anche all’età o a situazioni sociali o economiche. Ancora una volta, può essere difficile stabilire se un sistema abbia distorto il comportamento di qualcuno e abbia causato (o possa ragionevolmente causare) danni significativi, ma questo è, inevitabilmente, un argomento per discussioni teoriche e analisi di casi reali, anche da una prospettiva legale. Questo vale anche per l’individuazione delle situazioni sociali o economiche a cui l’articolo si applica effettivamente.
Una considerazione personale, però: che dire dei sistemi alimentati dall’IA che, per esempio, stimolano un giovane utente a interagire con essi per parecchie ore, come sembra accadere con molti giochi online o social media (che coinvolgano o meno l’IA)? Non è anche questo uno sfruttamento di una vulnerabilità (non solo dei giovani)? Al momento, non sembra esserci una chiara evidenza che, per esempio, il networking sociale online influisca sugli aspetti normali del comportamento umano e causi disturbi di rilevanza psichiatrica (vedi ad esempio questo studio). Tuttavia, cosa succederebbe se queste evidenze diventassero più forti? Questi tipi di sistemi dovrebbero essere vietati? La mia risposta è sì, a meno che non vengano modificati in modo appropriato e tempestivo.
