Il compito fatto dal chatbot è l’equivalente digitale del “copiare il tema dell’amico”: comodo, velocissimo, apparentemente innocuo, ma alla lunga svuota l’apprendimento e la fiducia tra studenti e insegnanti. Allo stesso tempo, usare l’IA a scuola in modo trasparente e guidato può diventare uno dei modi più potenti per insegnare davvero a pensare, e non solo a ripetere.
Il nuovo “tema copiato”
La scena è sempre la stessa: compito di italiano, scadenza il giorno dopo, pagina bianca, panico. Solo che oggi, invece di telefonare al compagno più bravo, si apre un chatbot, si incolla la traccia e in pochi secondi arriva un tema “perfetto”. Niente errori di ortografia, periodi scorrevoli, citazioni d’autore plausibili: è difficile resistere alla tentazione di consegnare così com’è, soprattutto se nessuno ha mai spiegato chiaramente cosa sia accettabile e cosa no.

Bambino a scuola ph FP
Per molti docenti questa è la materializzazione dell’incubo: una macchina che sforna compiti in serie, annullando la possibilità di valutare il singolo studente. Ma il paradosso è che lo stesso strumento, se dichiarato e incanalato, può aiutare gli alunni a capire meglio un testo, simulare un dialogo socratico, svolgere esercizi personalizzati su misura delle proprie difficoltà.
Rischi: dal plagio all’analfabetismo di ritorno
Il primo rischio è brutale: lo studente smette di imparare a scrivere, argomentare, sbagliare e correggersi, delegando tutto all’IA. È un analfabetismo di ritorno elegante, perché travestito da testo bello e pulito: la forma migliora, ma il pensiero critico si atrofizza. L’IA, inoltre, può sbagliare in modo molto convincente: inserire dati falsi, citazioni inventate, ragionamenti apparentemente logici ma in realtà distorti.
C’è poi il problema dell’integrità accademica. Sempre più scuole, anche in Italia, stanno introducendo regolamenti che equiparano l’uso non dichiarato dell’IA al plagio: se un elaborato è scritto (anche solo in parte) da un chatbot e lo studente non lo dice, è come copiare un testo trovato online. In alcuni regolamenti si chiede esplicitamente di indicare a fine compito se e come si è usata l’IA, trasformando la trasparenza in parte integrante della valutazione.
Opportunità: dalla personalizzazione alla inclusione
Dall’altra parte della bilancia c’è un potenziale enorme. Un chatbot può spiegare lo stesso concetto in dieci modi diversi, con parole semplici per chi fa più fatica e con esempi più sofisticati per chi è avanti. Può aiutare chi ha disturbi specifici dell’apprendimento a riformulare testi, a sintetizzare capitoli troppo lunghi, a preparare schemi da studiare invece di muri di parole.
Per studenti stranieri o con difficoltà linguistiche, l’IA può diventare un traduttore intelligente che non si limita a convertire le parole, ma aiuta a capire il contesto, i modi di dire, i sottintesi. È anche uno strumento di preparazione al mondo del lavoro: la maggior parte delle professioni qualificate dovrà confrontarsi con l’IA generativa, e tenere questi strumenti fuori dalla scuola significa rimandare il problema a un momento in cui gli errori si pagano molto più cari.
Il ruolo dei professori: da “poliziotti del compito” a registi didattici
La presenza dell’IA costringe i docenti a una trasformazione non banale: non possono più limitarsi a chiedere “scrivi un tema su…”, sperando che la lotta si giochi solo tra studente e foglio. Diventano registi di un ambiente in cui l’IA è prevista, incorniciata e, soprattutto, discussa apertamente. Chiedere agli studenti di dichiarare l’uso dell’IA non è solo una misura disciplinare, ma un modo per spostare il focus dal “hai copiato?” a “come hai usato questo strumento?”.

Intelligenza artificiale a scuola ph FP
Alcune linee guida internazionali, come quelle pubblicate dall’UNESCO, insistono proprio su questo punto: integrare l’IA in un quadro centrato sulla persona, dove la tecnologia è mezzo e non fine. Ciò implica formare anche i docenti, perché non si può chiedere loro di governare uno strumento che conoscono poco o che vivono solo come minaccia. Se l’insegnante mostra in classe come l’IA può aiutare a migliorare una bozza, verificare dati, generare alternative e poi chiede agli studenti di criticare quella produzione, l’IA diventa un “avversario didattico” con cui allenarsi e non un alleato segreto per barare.
Copiare o imparare a usare gli strumenti?
La linea tra copiare e usare uno strumento in modo legittimo passa da tre elementi: intenzione, trasparenza, trasformazione. Se lo scopo è evitare lo sforzo e consegnare un testo che non rappresenta le proprie capacità, si sta copiando, anche se la fonte è un’IA e non il compagno di banco. Se invece l’IA viene usata per generare appunti, chiarire concetti, proporre esempi e poi lo studente rielabora, critica e integra con la propria testa, lo strumento diventa parte del processo di apprendimento.
La trasparenza è il discrimine pratico: dichiarare “ho usato un chatbot per…” obbliga lo studente a riflettere sul ruolo avuto dall’IA e consente al docente di valutare non solo il prodotto finale, ma il percorso. La trasformazione è ciò che distingue la copia dall’elaborazione: un testo generato e incollato è plagio; un testo generato, smontato, corretto, messo in discussione e riscritto può diventare una palestra di scrittura critica.
In definitiva, il compito fatto interamente dal chatbot è una rinuncia: a sbagliare, a cercare parole proprie, a trovare una voce. L’IA in classe ha senso solo se diventa l’occasione per affinare quella voce, non per farla tacere. In un mondo in cui le macchine scrivono sempre meglio, il vero “voto alto” sarà riservato a chi sa ancora pensare in modo autentico – e usare gli strumenti senza farsi usare.
A cura di Davide Cannata
Leggi anche: Il lato nascosto di Internet: cos’è il Dark Web