L’uso dell’IA si dimostra promettente in molti settori e progetti scientifici, dall’astronomia e astrofisica alla biochimica, e dall’ecologia alla progettazione di farmaci. I sistemi di intelligenza artificiale, infatti, possono essere impiegati per analizzare in tempi ragionevoli grandi quantità di dati con relazioni complesse, al fine di scoprire schemi, riconoscere elementi diversi o formulare previsioni.
Analogamente a un telescopio, l’IA si potrebbe considerare semplicemente come un altro strumento a disposizione della ricerca, utilizzabile con tranquillità una volta che si dimostri affidabile. Tuttavia, come suggerisce questo articolo di Inkeri Koskinen, questa visione va indagata più approfonditamente. Secondo l’autrice del lavoro una ‘fiducia necessaria’ è fondamentale per la ricerca scientifica collaborativa. Man mano la scienza diventa più complessa e specializzata, infatti, i singoli ricercatori non possono giustificare le proprie conclusioni in modo indipendente, ma solo facendo riferimento a conoscenze maturate da comunità scientifiche all’interno delle quali la fiducia nell’esperienza e nell’integrità dei colleghi gioca un ruolo indispensabile.
La fiducia necessaria non è fede cieca; è una fiducia razionale e controllata, coltivata attraverso meccanismi quali le discussioni critiche, la revisione degli articoli da parte di colleghi e la formazione. Queste misure sono pensate per minimizzare il ricorso alla fiducia in sé e per sé, permettendo la verifica a posteriori delle ricerche e la correzione degli errori. Nonostante questi controlli un certo livello di fiducia resta essenziale, in particolare perché i singoli ricercatori spesso non hanno le competenze per valutare in tutti i loro aspetti i contributi specialistici degli altri.
La nozione di fiducia ha diverse interpretazioni filosofiche, che spaziano dalle concezioni ‘spesse’ a quelle ‘sottili’. Le prime enfatizzano gli aspetti morali e affettivi della fiducia, suggerendo che questa possa essere diretta solo verso agenti capaci di responsabilità morale. Queste interpretazioni implicano che la fiducia sia profondamente legata alla buona volontà e a considerazioni morali come l’integrità e la coscienziosità. Le concezioni ‘sottili’, d’altra parte, non pongono l’accento sugli elementi morali e affettivi, ma vedono la fiducia più come una forma di affidamento che può estendersi anche alle macchine.
Nel contesto della collaborazione scientifica, secondo Koskinen, la fiducia necessaria è di tipo ‘spesso’. Ciò significa che gli scienziati devono fidarsi gli uni degli altri andando oltre il semplice affidamento e aspettandosi che nel loro lavoro i colleghi si assumano una responsabilità morale. Questa fiducia è cruciale perché gli scienziati dipendono dal lavoro di altri in modi che, spesso, non sono del tutto evidenti. Devono quindi fidarsi del fatto che i colleghi non siano disonesti o negligenti, che aderiscano a procedure accettate collettivamente e che mantengano l’oggettività.
La fiducia, qui, è ricca sul piano morale ma razionalmente fondata, e implica una gestione dei rischi coinvolti nell’acquisizione della conoscenza. È un riconoscimento della piena agenzia e responsabilità morale degli altri scienziati.
Se la fiducia necessaria può esistere solo tra agenti responsabili delle loro azioni non può estendersi ai sistemi di IA. Questo, a prima vista, non sembrerebbe un problema, perché l’IA – come scritto sopra – potrebbe semplicemente essere considerata una sorta di strumento utilizzabile con tranquillità ogni volta che si dimostra affidabile. Il lavoro di Koskinen, tuttavia, mette in discussione questa conclusione, come approfondiremo nel prossimo post.
