Il ciclone ChatGPT e la scuola: 5 punti chiave

di Enrico Nardelli

In questi mesi nel mondo della scuola c’è un enorme subbuglio – soprattutto tra i docenti, a causa degli strumenti di intelligenza artificiale generativa (che nel seguito chiamerò, per brevità, IAG), di cui il più noto è ChatGPT. Come mai sta accadendo questo? Per cominciare, gli strumenti di IAG sono oggettivamente in grado di esibire prestazioni (nella produzione di testi, ma anche di immagini, e di molti altri prodotti cognitivi tipicamente realizzati dagli esseri umani) che in molti casi non sono distinguibili da quelle delle persone. Quindi, quelli che nella bella definizione di Stefano Quintarelli sono solo dei SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = approcci sistematici per [lo sviluppo di] algoritmi di apprendimento e [sistemi di] deduzione automatica), vengono, a causa di un processo di proiezione che è tipico degli esseri umani che vedono significati dappertutto, erroneamente percepiti nell’interpretazione comune come delle entità realmente intelligenti.

Poi, sono in gioco enormi interessi commerciali, miliardi di euro (o dollari) investiti annualmente per tentare di accaparrarsi quote di mercato che si proiettano in valori almeno mille volte maggiori. Questi spingono ogni giorno, in modo incessante, a descrivere sui mezzi di comunicazione scenari che oscillano dal fantascientifico (risolveremo tutti i problemi dell’umanità) all’apocalittico (perderemo tutti il lavoro), ma sempre finalizzati a costruire una convinzione di ineluttabilità: non c’è alternativa! In particolar modo, dal momento che il modo migliore di convincere qualcuno ad usare un certo prodotto è quello di abituarlo all’uso sin da piccolo, il settore della scuola è quello su cui si concentra la maggiore pressione.

Inoltre, gli strumenti di IAG sono ormai integrati nell’appendice tecnologica di cui tutti siamo dotati, lo smartphone e quindi, volenti o nolenti, tutti si trovano ad utilizzarli. È inevitabile! si ribadisce in continuazione. Il termine “innovativo” viene poi usato come passepartout per convincere chi non è esperto, trascurando di considerare quali possono essere le reali conseguenze di lungo periodo. Ricordiamoci di come nell’ultimo ventennio si siano fatti usare dispositivi digitali ai minori, anche piccolissimi, senza alcun reale controllo, per poi accorgersi che, come documentato nel rapporto finale del giugno 2021 dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato, qualche problema è stato creato, e non di poco conto.

Ora, per limitarci agli strumenti di IAG testuali, cioè quelli che preparano dei testi rispondenti a quanto è stato richiesto (p.es.: quali sono i fatti salienti delle Guerre Puniche? oppure: scrivi una sintesi in 20 righe de “I promessi sposi”, o ancora: descrivi il processo di impollinazione delle piante), la conseguenza immediata sulla scuola è che uno dei modi più tradizionali di verifica delle competenze utilizzato giornalmente, ovvero lo svolgimento di compiti a casa, perde completamente di efficacia. È ovvio, a meno di non instaurare un clima proibizionistico che comunque sarebbe di qualche utilità solo per un breve periodo, che tutti gli scolari li svolgerebbero usando l’IAG.

La risposta non è però inventarsi improbabili modi di farli comunque usare agli studenti. Discuterò nel seguito i cinque punti critici di un approccio di questo genere. La risposta è dar maggior valore all’oralità e al rapporto in presenza. Quindi, meno compiti a casa e più lavoro in classe, il che implica avere classi più piccole e più insegnanti. Certo, servono soldi, ma sull’istruzione si gioca il futuro di un Paese. Un approccio di questo genere, tra l’altro, torna a dare valore alla componente relazionale del rapporto tra docente e studente. Sappiamo bene, almeno a partire dall’analisi fatta da Platone nei suoi Dialoghi, che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. Questa componente può essere arricchita dalla tecnologia, se opportunamente utilizzata, ma mai, mai sostituita, pena l’impoverimento e la distruzione della nostra umanità.

Alcuni comunque dicono: “trasformiamo la disponibilità dell’IAG in un’opportunità per un apprendimento migliore da parte degli studenti; facciamogli fare degli esperimenti con queste tecnologie che comunque si troveranno ad usare da grandi”. Ci sono in questo modo di fare alcuni punti critici assai importanti che vale la pena esaminare.

1) Si tratta di strumenti ancora in fase di sviluppo, che spesso producono risposte che sembrano corrette, ma sono imprecise. Solo se conosciamo bene l’argomento sui cui l’IAG ha prodotto un testo possiamo accorgerci di ciò che non va. Dal momento che nella scuola, tanto più quanto più si è piccoli, l’acquisizione della conoscenza è proprio uno degli aspetti formativi fondamentali, è evidente che non è sensato rischiare che gli scolari apprendano conoscenze errate (se non addirittura viziate da pregiudizi o stereotipi).

2) Sono strumenti controllati dalle solite Big Tech, sui quali vi è un’assoluta mancanza di controllo su come sono stati messi a punto e funzionano, su quali dati siano stati usati per il loro addestramento e su quali prove di sicurezza siano state condotte. Per ogni tecnologia potenzialmente nociva le società hanno introdotto delle regolamentazioni. In questo caso ci sta provando l’Unione Europea con il cosiddetto “AI Act”, per il quale è stato recentemente annunciato l’accordo politico ma non sono noti i dettagli. Però nel frattempo se ne sta incentivando il più possibile l’uso, incuranti dei possibili rischi. Una prima grana è esplosa proprio negli ultimi giorni del 2023, con la notizia che il New York Times, uno dei giornali più noti e con la miglior reputazione al mondo, ha fatto causa per violazione di diritto d’autore a OpenAI e Microsoft perché avrebbero addestrato i loro strumenti IAG sui loro articoli senza esserne autorizzati. Altre se ne attendono a breve, relativamente agli strumenti IAG visuali, cioè quelli in grado di produrre immagini e video, dal momento che diversi utenti su X (precedentemente Twitter) hanno evidenziato che possono produrre immagini protette dal diritto autore, anche se l’utente formula la richiesta in modo generico.

3) Usare strumenti ancora in sviluppo vuol dire lavorare gratis per chi li sta mettendo a punto e magari un giorno ce li rivenderà. Ovvero, stiamo commettendo di nuovo lo stesso errore in cui siamo incorsi abbandonandoci senza pensare troppo a piattaforme sociali intrusive e abusive, che hanno raccolto quantità enormi di dati su di noi e le usano a scopo commerciale. Cosa ce ne viene in cambio? Quando si dice che dobbiamo insegnare ai docenti come fare le domande all’IAG per ottenere l’aiuto di cui possono aver bisogno (il cosiddetto prompt engineering) mi sento rabbrividire: ma davvero vogliamo trasformarli in forza-lavoro gratuita a disposizione delle Big Tech ?

4) Se anche gli strumenti dell’IAG dessero sempre risposte corrette (ma non è così), con il loro uso nei livelli inferiori della scuola non solo rischiamo che i nostri figli acquisiscano conoscenze errate, ma possiamo menomare le loro possibilità di crescita sul piano cognitivo, dal momento che in tal modo essi non le esercitano. Sintetizzare testi, argomentare una posizione, presentare un punto di vista sono competenze fondamentali per un qualunque cittadino. Se non li facciamo esercitare da scolari, non le acquisiranno mai. Un po’ come accade se ci spostiamo solo in automobile e mai a piedi o in bicicletta, le nostre capacità fisiche si indeboliscono. In aggiunta, mentre studiando sui libri ci si allena alla pluralità di punti di vista e modi di presentare un certo argomento, in presenza di pochissime sorgenti di conoscenza il rischio di un indottrinamento sociale, soprattutto per le materie umanistiche, è fortissimo.

5) Mi sembra incredibile il contrasto tra i continui inviti ad usarli e la mancanza di una seria valutazione di tipo etico relativa al coinvolgimento dei minori nell’uso di strumenti ancora sperimentali. Ma come, per qualunque sperimentazione che coinvolga i bambini è, giustissimamente, necessaria l’approvazione sul piano etico, e in questo caso invece niente? Per un recente progetto di ricerca nelle scuole primarie che confrontava due metodi di insegnamento di uno dei costrutti fondamentali dell’informatica, io e i miei colleghi abbiamo dovuto avere l’approvazione di un comitato etico, mentre in questo caso vedo esortazioni a far usare l’IAG a minorenni senza alcuna riflessione su questi aspetti, né su quelli relativi alla privacy. Ma voi vi immaginate se nei primi anni del Novecento i fratelli Wright avessero cominciato a far volare persone sui loro aeroplani mentre li mettevano a punto?

Si dice: ma non c’è alternativa, l’IAG è qua e fa parte della nostra vita. È vero che è già nella nostra vita, ma non c’è un assoluto bisogno di usarla nelle classi. Il che non vuol dire non parlarne o far finta che non esista. L’uso collettivo in aula, sotto il controllo e la guida del docente, accompagnato da una discussione critica, ovviamente al livello consentito dall’età dei bambini, costituisce un’utile informazione su una tecnologia che comunque incontrano. Ma non abbiamo davvero necessità che, allo stato attuale della tecnologia, gli studenti utilizzino regolarmente tali strumenti. Per i docenti, alcuni usi sono possibili, come ho descritto in un recente articolo, ma è necessaria un’estrema attenzione, vista la natura ancora sperimentale di questi strumenti e i pericoli legati alla disseminazione di dati personali dei minori. A questo proposito mi piacerebbe sapere se l’autorità Garante per la Protezione dei Dati Personali ha valutato se l’esortazione agli insegnanti di usare questi strumenti per migliorare la loro didattica, personalizzandola per le esigenze dei singoli studenti, possa mettere a repentaglio la privacy di questi ultimi.

Aggiungo, per essere ancora più chiaro: in un contesto in cui nelle scuole insegniamo le basi scientifiche dell’informatica, può certamente trovare spazio anche la didattica sui princìpi dell’intelligenza artificiale, che costituisce un settore molto importante dell’informatica stessa. Però, insegnare cos’è l’apprendimento automatico (= machine learning), cioè la tecnica fondamentale usata per l’IAG, a chi non sa cos’è un automa o un algoritmo è come tentare di far capire cos’è la trigonometria a chi conosce solo le quattro operazioni aritmetiche. Si può certo raccontare che la trigonometria permette di misurare la distanza tra due alberi al di là di un fiume senza attraversarlo, ma in assenza di un’adeguata base di matematica si tratta di semplice divulgazione. Utile certamente per il cittadino che ha poco tempo per studiare e che deve comunque essere aggiornato sugli avanzamenti scientifico-tecnologici, mentre nella scuola vanno fornite le basi scientifiche per comprendere il mondo intorno a noi, sia quello della natura che quello artificialmente costruito, che in misura sempre maggiore è digitale.

Ripensare l’intero curriculum scolastico alla luce della trasformazione ormai avvenuta da società industriale a società digitale è un passo indispensabile, molto, molto di più che inseguire le mode tecnologiche addestrando studenti e insegnanti all’uso degli strumenti di IAG.

--
Versione originale pubblicata su "StartMAG" il 4 gennaio 2024.

Pubblicato da Link&Think alle 13:35:00  

Invia tramite emailPostalo sul blogCondividi su TwitterCondividi su FacebookCondividi su Pinterest

https://link-and-think.blogspot.com/2024/01/il-ciclone-chatgpt-e-la-scuola-5-punti-chiave.html