In questo e in questo post, abbiamo discusso il ruolo dell’IA nella ricerca scientifica, facendo riferimento al lavoro della filosofa Inkeri Koskinen e alla nozione di fiducia necessaria. Concludiamo la discussione in questo post. Il problema essenziale è se un software IA possa essere considerato uno strumento come il telescopio spaziale Hubble o un algoritmo per eseguire calcoli altrimenti impossibili da completare in un tempo ragionevole. Facendo riferimento al lavoro di diversi autori, Koskinen conclude che non è così. La produzione di conoscenza attraverso Hubble e i comuni strumenti informatici, infatti, implica un sistema composto da umani e macchine dove gli umani sono in grado di assumersi la responsabilità del funzionamento dell’intero sistema e, contrariamente a quanto accade con l’IA, possono monitorare tutti i processi rilevanti.
D’altro canto Clark (2015) non ritiene che la possibilità di monitoraggio sia fondamentale, dal momento che nemmeno i nostri stessi processi mentali sono completamente trasparenti, né di solito chiediamo che lo siano. Perché, allora, pretendere che il funzionamento degli strumenti IA sia invece del tutto trasparente e monitorabile? Koskinen osserva, però, che anche secondo Clark la consapevolezza dei processi del pensiero diventa rilevante quando si trasmette ad altri conoscenza (e non semplici fatti) in modo sistematico, ad esempio scrivendo articoli scientifici o promuovendo metodi e pratiche che aiutino degli studenti a esplorare e testare le loro convinzioni e fonti, approfondendo così la loro comprensione (Koskinen, 2023). Cosa ancora più importante, esaminare criticamente i propri pensieri è una pratica scientifica essenziale per sostenere le conclusioni ottenute, poiché un buon scienziato è consapevole dei numerosi pregiudizi e delle altre insidie che possono influenzare il ragionamento umano. Inoltre, la giustificazione di un’affermazione è indipendente dagli effettivi processi cognitivi usati per ottenerla e deve essere pubblica e sottoponibile ad esame. Non è chiaro come tutto questo si possa ottenere usando un’applicazione IA opaca.
Clark, inoltre, osserva che quando incontriamo un nuovo strumento o tecnologia, esercitiamo un’attenzione extra per imparare a utilizzarlo e comprenderne potenzialità e limiti. Una volta che quello strumento o quella tecnologia sono completamente familiari, l’attenzione può essere ridotta e sostituita con ciò che si può chiamare “uso irriflessivo”; questo è compatibile con la fiducia necessaria discussa da Koskinen. Tuttavia, potrebbe dimostrarsi impossibile comprendere fino in fondo il funzionamento di un’applicazione IA. A un certo punto, poi, può darsi che l’output di uno strumento scientifico o di un software ordinario sia accettato in modo automatico, una condizione posta da Clark e Chalmers (1998) per poter considerare un oggetto parte del sistema cognitivo di un individuo. Tuttavia, anche questo potrebbe non essere possibile con un software IA.
In conclusione, come scrive Koskinen, l’introduzione di applicazioni IA opache nella scienza modifica significativamente il ruolo delle macchine in modi che dobbiamo ancora comprendere.
