IA, scienza e fiducia #2

In questo post abbiamo discusso il problema dell’uso dell’IA nella ricerca scientifica, concentrando l’attenzione sul lavoro della filosofa Inkeri Koskinen e sul concetto di ‘fiducia necessaria’. Proseguiamo la discussione in questo secondo post. Koskinen evidenzia che, in base alla letteratura, è accettabile che uno scienziato dipenda da strumenti di cui non comprende del tutto il funzionamento se qualcun altro capisce come questi strumenti funzionino, li ha realizzati seguendo diligentemente le procedure accettate, se ne assume la responsabilità in modo appropriato e giustificato dal punto di vista scientifico e può essere considerato affidabile.

Perciò, nella pratica scientifica e nell’ottica della fiducia necessaria, dipendere da strumenti il cui funzionamento non si comprende in ogni dettaglio è visto come una forma tipica di dipendenza da altri scienziati quali agenti che possono essere considerati responsabili e affidabili. L’integrazione delle applicazioni IA nella scienza, però, pone delle sfide.

Più di un decennio fa, Paul Humphreys ha individuato un problema chiave nell’uso delle simulazioni al computer, ossia la loro ‘opacità epistemica’. Questo concetto si riferisce all’incapacità intrinseca degli agenti umani di comprendere pienamente gli intricati dettagli e i processi di questi sistemi computazionali, a causa della loro natura complessa e della loro velocità.

Humphreys distingue tra opacità epistemica ordinaria (accidentale) ed essenziale. Nel primo caso c’è qualcuno, all’interno di un gruppo o comunità di ricerca, che comprende il funzionamento dello strumento, così che gli altri possano fidarsi della sua competenza secondo il punto di vista della fiducia necessaria. Tuttavia, l’uso di applicazioni IA che costituiscono delle ‘scatole nere’ (opacità essenziale) cambia questa dinamica. Queste applicazioni sono così complesse che nessun essere umano può comprenderle pienamente o esserne considerato del tutto responsabile, eliminando così la possibilità di una fiducia, razionalmente fondata, appunto in un agente responsabile.

Il problema si aggrava quando i sistemi IA incorporano decisioni (ad esempio quale risposta o interpretazione privilegiare se ci sono più possibilità) che non sono strettamente correlate al processo di produzione della conoscenza. Secondo la prospettiva della fiducia necessaria i ricercatori dovrebbero potersi fidare dei responsabili di queste decisioni, ma con l’IA un responsabile potrebbe non esserci.

In alcuni casi è possibile esaminare il funzionamento interno di uno strumento IA per determinare, in una certa misura, quali fattori hanno influenzato il risultato finale. Tuttavia, almeno nella mia esperienza, spesso questo esame non rivela un ‘ragionamento’ trasparente o comprensibile, specialmente in termini di relazioni di causa ed effetto. È, invece, qualcosa di simile a sondare una mente aliena, che arriva a una risposta potenzialmente corretta, ma con percorsi incomprensibili.

Quindi, come interpretare l’affidamento a strumenti di Intelligenza Artificiale? Questo argomento sarà esplorato nel prossimo e ultimo post dedicato al lavoro di Koskinen.


Leave a comment