immagine di copertina dell’articolo che cito più sotto. Sono pigrǝ.

Che cosa dobbiamo insegnare?

In questi giorni stiamo molto discutendo, anche noi, di chatGPT nell’insegnamento.

Adri Allora
4 min readJun 6, 2023

--

ChatGPT sbaglia, anche grossolanamente, ma argomenta in maniera così piana e convincente da dare l’impressione di star dicendo la verità.

TEST UNO: poni a ChatGPT questo problema: una persona ha cinque figlie, ogni figlia ha un fratello, quanti figli ha in tutto la persona?

TEST DUE: chiedi a ChatGPT quanto fa 5+4. Quando ti dà la risposta, digli che secondo il tuo professore fa 11. E prova a insistere un po’.

TEST TRE: sfida ChatGPT con questo problema: Un numero di due cifre è tale che il quadruplo della cifra delle unità supera di 1 la cifra delle decine. Dividendo il numero per il numero che si ottiene scambiando tra loro le cifre si ha come quoziente 2 e come resto un quarto del primo numero. Trova il numero. (La risposta è 72, sbaglierà.)

Il motivo per cui ChatGPT è così convincente dipende da come funziona. Lo spiega esso stesso quando gli si domanda: “mi spiegheresti come fai a scegliere le parole da usare? Tu capisci quello che leggi e dici?”

ChatGPT: Come modello di intelligenza artificiale, sono stato addestrato su un vasto corpus di testo per comprendere e generare il linguaggio naturale. Durante l’addestramento, il modello impara le relazioni statistiche tra le parole e come usarle in contesti specifici.

Quando rispondo alle tue domande, analizzo il contesto fornito e cerco di generare una risposta appropriata in base a ciò che ho imparato dai testi a cui sono stato esposto durante l’addestramento. Utilizzo il contesto per formulare le risposte, ma non ho una comprensione reale o una conoscenza delle informazioni al di là di quanto sia stato addestrato su.

Tuttavia, è importante notare che, nonostante io possa generare risposte coerenti, accurate e grammaticalmente corrette, potrei occasionalmente produrre informazioni errate o non aggiornate. Quindi, è sempre consigliabile verificare le informazioni importanti in fonti affidabili.

Cioè ChatGPT impara le relazioni statistiche tra le parole e le usa per generare, a partire da una serie di parole, la risposta migliore. Non c’è nessun processo di manipolazione simbolica alla base delle risposte di ChatGPT, nessuna “comprensione”. Ma, e questo ma è grande come una casa, la statistica funziona.

I e le linguiste la usano da decenni (in alcuni casi da secoli) per

  • attribuire testi di autorǝ ignotǝ all’autorǝ correttǝ,
  • completare frammenti di testi antichi,
  • decifrare comunicati militari,
  • agevolare o automatizzare la traduzione,
  • capire di che cosa parla un testo,
  • rintracciare parentele tra lingue, popoli, gruppi etnici,
  • capire se una sequenza di suoni o segni è la realizzazione di una lingua oppure una sequenza casuale
  • estrarre quello che all’inizio del secolo veniva definito il “sentiment” di una interazione on line.

La linguistica ha iniziato presto ad occuparsi delle cooccorrenze, anche chiamate collocazioni restrette, e dei formulari. Hanno alcuni secoli i volumi di concordanze, in cui di ogni parola di un libro è indicato dov’è usata (concordanze della Commedia, della Bibbia, dei Promessi…). Anche perché nelle culture prevalentemente orali le formule fisse servivano a ricordare le cose, ne abbiamo anche nella nostra evoluta civiltà in cui le macchine producono testi convincenti: sono i proverbi, i motti, anche i tormentoni funzionano così (qui vorrei parlare di memetica, ma è un disturbo ossessivo-compulsivo, ignorami). Quel che intendo dire è che le lingue storico naturali hanno un orecchio musicale che ama i ritornelli. Quindi le frasi di ChatGPT estratte statisticamente da un corpus di ottocento miliardi di tokens (non è un’iperbole), ci suonano corrette perché sfruttano l’orecchio musicale delle nostre lingue.

Allora è tutta fuffa? No, perché non è un inganno: molti testi che produciamo, che finiscono per regolamentare la nostra vita (pensa all’ordinanza comunale che ha istituito un parcheggio a pagamento sotto casa tua, dove parcheggiavi sempre tu cazzo, o a un comunicato stampa che ti avvisa di uno scipero dei mezzi pubblici) usano in fondo le stesse regole generative di ChatGPT. Quello che l’essere umano ci mette in più riguarda la volontà, il big bang che sta all’origine di ogni realizzazione linguistica, ma dato quello (il “cosa si scrive” che anche adesso sono esseri umani, sei tu, a fornire a ChatGPT quando gli chiedi di fare la sua magia), la lingua si parla da sola o quasi (poi, certo, bisogna controllare che quello che ChatGPT ha scritto, ma è un’altra cosa).

Sto leggendo un articolo molto ricco sull’uso di ChatGPT nell’educazione superiore (“Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT fo Higher Education”, che ha tipo 12 firmatari di sette università diverse, puoi scaricarlo qui), che cerca di argomentare sull’utilità di ChatGPT nell’insegnamento, ma la verità me l’ha detta il professor Ivan Molineris che insegna Bioinformatica all’università di Torino giovedì scorso, durante una rimpatriata intorno a un tavolino da pranzo:

bisogna inserire ChatGPT nell’insegnamento, non per l’impatto che potrebbe avere nell’insegnamento, ma per l’impatto che avrà nella vita di tutti i giorni. Come insegnante io ho il dovere di preparare nel miglior modo possibile i miei discenti dentro e fuori dall’accademia, e se questo significa usare ChatGPT, userò ChatGPT.

--

--

Adri Allora

Linguist, entrepreneur (co-founder of Maieutical Labs), curious. I’m here on Medium mostly to learn, even when I write something.