Aggiungo, alle considerazioni in questo post, qualche altra riflessione sui rischi di utilizzare ChatGPT e gli strumenti IA in generale. Il prof. White, menzionato nel post, invita a: 1) usare ChatGPT come strumento di “intelligenza aumentata” per incrementare, anziché ridurre, le nostre capacità cognitive; 2) chiederci se, a causa del modo in cui usiamo l’IA, un domani sarà più facile sostituirci con l’IA stessa oppure con qualcuno che la sa usare e, in più, ha anche le competenze X, Y e Z che noi non abbiamo o abbiamo perso. È questa la vera domanda che dovrebbero farsi anche gli studenti che ricorrono a ChatGPT o strumenti simili per ‘semplificarsi la vita’. La questione importante non è se facendo svolgere un certo compito all’IA si possa essere ‘beccati dai docenti’, ma se in questo modo si toglie qualcosa alle proprie capacità aumentando la probabilità, in futuro, di diventare superflui, almeno dal punto di vista lavorativo. Allo stesso tempo, però, le istituzioni formative devono chiedersi quali contenuti, vecchi e nuovi, siano significativi nell’epoca dell’IA. L’abilità di sommare lunghe liste di numeri, ad esempio, non è particolarmente utile se sono disponibili calcolatrici e PC. Quali competenze, allora, è importante che gli studenti (e i docenti) sviluppino quando si hanno a disposizione una miriade di strumenti IA? Si tratterà, molto probabilmente, di competenze di alto livello, come ad esempio la capacità di pianificare un compito e formulare un prompt in modo da ottenere un risultato migliore, di controllare l’output e di inserire in modo ottimale un sistema IA all’interno di un dato contesto. Ma una competenza di alto livello, che ritengo altrettanto importante, sarà anche quella di capire ancora meglio quando non utilizzare l’IA. Ne parleremo in un prossimo post.
Tag: Large Language Models
-
In addition to the considerations in this post , I add some further reflections on the risks of using ChatGPT and AI tools in general. Professor White, mentioned in the post, advises: 1) to use ChatGPT as a tool for “augmented intelligence” to increase, rather than reduce, our cognitive capabilities; 2) to question whether, because of the way we use AI, it will be easier in the future to replace us with AI itself or with someone who knows how to use it and, in addition, has competencies X, Y, and Z that we do not have or have lost. This is the real question that students who turn to ChatGPT or similar tools to ‘simplify their life’ should also ask themselves. The important issue is not whether by delegating a certain task to AI one might be ‘caught by teachers’, but whether in doing so, one is removing something from their own capabilities, increasing the likelihood, in the future, of becoming superfluous, at least from a work perspective. At the same time, however, educational institutions must ask themselves which old and new contents are significant in the era of AI. The ability to sum a long list of numbers, for example, is not particularly useful if calculators and PCs are available. What skills, then, is it important for students (and teachers) to develop when a myriad of AI tools are available? These will most likely be high-level skills, such as the ability to plan a task and formulate a prompt in a way that achieves a better result, to check the output, and to optimally integrate an AI system within a given context. But a high-level skill, which I believe is equally important, will also be to understand even better when not to use AI. We will talk about this in a future post.
-
To answer this question, one can first refer to the chart shown below, derived from this UNESCO publication.

Here’s the essence of the chart: ChatGPT responses may contain errors and false or inaccurate information. If this is not a concern, then it is certainly safe to use the model; otherwise, one should ask whether one has the necessary skills to verify if ChatGPT’s output is correct and accurate or not. If you lack these skills, then it is not safe to use ChatGPT. However, if you do possess these skills, as a final step, you need to ask yourself whether you can – and want to – take full responsibility, from every perspective, for any errors or inaccuracies that may go unnoticed. If the answer is no, then, once again, it is not safe to use ChatGPT. If the answer is yes, then you can use the model’s output after carefully verifying it. The same guidelines apply to other systems, such as Google’s Bard, but also more generally. In his Thrustworthy Generative AI course, Professor Jules White (Vanderbilt University) invites us to think about this problem in terms of risk: what consequences could using AI-generated results have? Could there be serious repercussions for people? Economic or reputational harm? Other significant negative effects? Furthermore, is it easy or difficult to verify the obtained answers? If using the output of an AI can have significant consequences, verifying the answers is difficult, and you lack the skills to do so, then it is certainly advisable not to use AI or to use it in a way that reduces risks. How? Professor White provides these two examples: instead of asking ChatGPT if it is safe to take drug X (high risk), you can ask what questions it would be appropriate to ask a doctor, i.e. an expert, to evaluate the safety of taking X given your health conditions (lower risk, possibly affecting your reputation). Furthermore, instead of asking ChatGPT to extract/summarize critical information from a certain document (high risk), you can ask it to identify where in the document that information can be found (lower risk).
Using AI correctly requires not fewer skills but more skills, despite the countless charlatans who present AI as a sort of genie in a bottle that provides the solution to this or that problem without any effort on your part. A story that has been heard a million times, and just as many times proven false, if not dangerous. -
Per rispondere a questa domanda si può, innanzi tutto, fare riferimento al grafico mostrato qui sotto, derivato da questa pubblicazione UNESCO.

Ecco il senso del grafico: le risposte di ChatGPT possono contenere errori e informazioni false o non accurate. Se questo non costituisce un problema allora è senz’altro sicuro usare il modello, in caso contrario occorre chiedersi se si hanno le competenze necessarie per verificare se l’output di ChatGPT sia corretto e accurato oppure no. Se non si possiedono queste competenze allora non è sicuro usare ChatGPT, altrimenti, come ultimo passo, è necessario domandarsi se ci si può – e si vuole – assumere la piena responsabilità, sotto ogni punto di vista, per eventuali errori o inaccuratezze non rilevate. Se la risposta è no allora, di nuovo, non è sicuro utilizzare ChatGPT, e se invece è sì l’output del modello si può utilizzare dopo averlo attentamente verificato. Le stesse indicazioni valgono per altri sistemi, come ad esempio Bard di Google, ma anche più in generale. Nel suo corso Thrustworthy Generative AI il prof. Jules White (Vanderbilt University) invita a pensare a questo problema in termini di rischio: usare i risultati prodotti da una IA quali conseguenze potrebbe avere? Ci potrebbero essere serie ripercussioni sulle persone? Danni economici o alla propria reputazione? Altri importanti effetti negativi? E ancora: verificare le risposte ottenute è facile o difficile? Se utilizzare l’output di una IA può avere conseguenze importanti, verificare le risposte ottenute è difficile e non si hanno le competenze per farlo allora è senz’altro raccomandabile non usare l’IA oppure utilizzarla in modo tale da ridurre i rischi. Come? White fa questi esempi: non va chiesto a ChatGPT se sia sicuro assumere il farmaco X (rischio elevato), ma eventualmente quali domande sia opportuno fare a un medico, cioè a un esperto, per valutare se sia sicuro assumere X date le proprie condizioni di salute (rischio minore, al più alla propria reputazione). E ancora: anziché chiedere a ChatGPT di estrarre/riassumere informazioni critiche da un certo documento (rischio alto) si può chiedergli di individuare dove, in quel documento, si trovino quelle informazioni (rischio più basso). Usare correttamente l’IA non richiede meno competenze, ma più competenze, nonostante i mille imbonitori che spacciano l’IA stessa per una specie di genio della lampada che fornisce la soluzione di questo o quel problema senza che si debba fare nulla. Una storia già sentita un milione di volte, e altrettante volte rivelatasi falsa, se non pericolosa.
-
Un prompt di ChatGPT è un’istruzione o una domanda fornita dall’utente che guida l’IA nella generazione di una risposta. La qualità di un prompt può influenzare significativamente la pertinenza e l’utilità del risultato ottenuto. I buoni prompt sono chiari, specifici e forniscono abbastanza informazioni contestuali per indirizzare ChatGPT verso l’esito desiderato. Spesso contengono dettagli espliciti sul compito richiesto, incluse eventuali informazioni di base che il modello potrebbe dover conoscere per fornire una risposta accurata. Al contrario, un cattivo prompt può essere vago, ambiguo o mancare dei dettagli necessari per ottenere una risposta precisa. Questo può portare a fraintendimenti o risultati che non soddisfano le esigenze dell’utente. Ad esempio, un buon prompt potrebbe essere: “Spiega il processo della fotosintesi nelle piante, dettagliando le reazioni chimiche e il ruolo della clorofilla”. Questo prompt è specifico e comunica a ChatGPT quali informazioni siano richieste esattamente. Un prompt meno buono, invece, potrebbe essere: “Parlami delle piante”. Questa richiesta è vaga e non indica quali aspetti delle piante interessano all’utente, cosa che può condurre ad una risposta generica.
La natura dei prompt per ChatGPT obbliga gli utenti ad avere una visione molto chiara di ciò che vogliono ottenere e di come esprimerlo. Tale chiarezza è essenziale perché, a differenza delle conversazioni umane, non può esserci un’intesa linguistica tacita tra un umano e il modello. La comunicazione umana si basa spesso su un contesto implicito condiviso, segnali non verbali e una comprensione comune sviluppata nel tempo, che attualmente l’IA non può replicare completamente. Pertanto, è compito dell’utente fornire istruzioni esplicite che lasciano poco spazio all’interpretazione, garantendo una risposta più accurata e utile da parte di ChatGPT. Questo ci costringe ad articolare i nostri pensieri in modo più preciso e sistematico, e incoraggia l’esattezza nella comunicazione. Decisamente, non una brutta cosa.
-
A ChatGPT prompt is a user-provided instruction or question that guides the AI in generating a response. The quality of a prompt can significantly influence the relevance and usefulness of the AI’s output. Good prompts are clear, specific, and provide enough context to direct the model towards the desired outcome. They often contain explicit details about the task, including any necessary background information that the AI might need to know to provide an accurate response. Conversely, a bad prompt may be vague, ambiguous, or lack the details necessary to yield a precise answer. Such prompts can lead to misunderstandings or responses that don’t meet the user’s needs. For example, a good prompt might be: “Explain the process of photosynthesis in plants, detailing the chemical reactions and the role of chlorophyll”. This prompt is specific and informs the AI of the exact information required. A bad prompt, however, might be: “Tell me about plants”. This is vague and does not specify what aspects of plants the user is interested in, which can result in a broad and unfocused response.
The nature of prompts in ChatGPT forces users to have a very clear view of what they want to achieve and how to express it. Such clarity is essential because, unlike human conversations, there cannot be tacit linguistic agreements between a human and ChatGPT. Human communication often relies on shared context, non-verbal cues, and common understanding developed over time, which AI currently cannot fully replicate. Therefore, the onus is on the user to provide explicit instructions that leave little room for interpretation, ensuring a more accurate and helpful response from the model. This requirement encourages precision in thought and communication and compels us to articulate our thoughts more systematically. Definitely, not a bad thing.
-
Partiamo dal nome. OpenAI è l’azienda che ha sviluppato ChatGPT. Chat sta per “chat bot”, cioè un software capace di simulare una conversazione umana. Generative significa che questo sistema genera qualcosa, nel caso specifico caso testi. Pretrained indica che ChatGPT è pre-addestrato (su testi). Il termine transformer si riferisce al tipo di modello informatico utilizzato e, infine, 3.5 è la versione che stiamo considerando. ChatGPT 3.5 è al momento gratuito. Suo fratello maggiore, il 4.0, è invece a pagamento e ne parleremo più avanti.
ChatGPT fa parte dei cosiddetti modelli linguistici di grandi dimensioni (Large Language Models o LLM). Sono sistemi addestrati su enormi quantità di testi a riconoscere le relazioni tra parole, anche distanti tra loro, e funzionano cercando di prevedere la parola successiva in un testo basandosi su ciò che è stato scritto in precedenza dall’utente o dal modello stesso.
Un LLM sfrutta le sue vaste informazioni sulle strutture del linguaggio per completare e arricchire il testo sulla base delle richieste dell’utente. Questi modelli sono fondati sulle cosiddette reti neurali, che si possono immaginare come reti di piccole unità di elaborazione (nodi) connesse tra loro. Potete trovare qui o qui una serie di video accessibili su queste reti, sugli LLM e su altri argomenti interessanti (sono in inglese, al momento non ne ho reperiti di così abbordabili in italiano, ma continuerò a cercare).
ChatGPT interagisce con l’utente in linguaggio naturale, ad esempio inglese o italiano (sull’inglese è più competente), può scegliere parole diverse così da variare i contenuti delle risposte, può generare testi coerenti con differente grado di complessità, struttura e tono, e ricorda fino a un certo punto i contenuti di una conversazione.
L’addestramento di ChatGPT 3.5 è terminato a gennaio 2022, quindi il sistema non contiene alcun riferimento a fatti successivi a quella data (ad esempio alla vittoria dell’Argentina, a dicembre, del campionato di calcio FIFA 2023).
La comprensione del significato dei testi è soltanto simulata e le informazioni fornite (come fatti o citazioni bibliografiche) possono essere inesatte o false. Questo diventa un problema critico solo se il modello è utilizzato in modo improprio (di questo parleremo in altri post). ChatGPT non è un motore di ricerca, ma può essere connesso alla rete, e non è molto adatto per eseguire calcoli numerici complessi o operazioni che li coinvolgono. In ogni momento l’unità di lavoro massima gestibile è di circa un foglio A4 (ma dipende dai casi). Infine, le conversazioni sono memorizzate per un certo periodo e possono essere analizzate da operatori umani; non vanno inserite informazioni coperte da privacy o soggette ad altri vincoli di diffusione.
Per iniziare a utilizzare ChatGPT potete partire da qui e seguire le istruzioni. Il web è pieno di materiali sull’uso di questo modello, ma nei futuri post, oltre a raccontarne un po’ di più, ci concentreremo anche su aspetti forse meno discussi. A presto.
