Castilla-La Mancha: Ana Delgado (CCOO) avverte sul pericolo dell’IA in aula, «impeccabile ma senza apprendimento» — in Italia arriva la stessa sfida
Alla conferenza di Madrid sull’IA educativa, Ana Delgado (Federazione dell’Insegnamento CCOO, Castilla-La Mancha) lancia un allarme. Secondo lei, i compiti possono apparire impeccabili, ma non garantire apprendimento reale. Denuncia un’adozione quasi senza chiedere permesso, con dipendenza e calo dello sforzo cognitivo. C’è anche il lato economico: l’IA non è neutra e i dati degli studenti hanno valore. Per l’Italia è un segnale anticipato: AI Act e regole future chiederanno limiti e trasparenza in classe.
Pericolo dell’IA nelle aule: lavoro impeccabile ma privo di apprendimento, secondo CCOO
- È entrata quasi senza chiedere permesso nei processi didattici, secondo Delgado.
- Lavori impeccabili, ma senza reale apprendimento: l’IA dà risposte, ma non aiuta a costruirle.
- Riduce lo sforzo cognitivo perché l’alunno si concentra sul risultato, non sul ragionamento.
- Indebolisce il pensiero critico: se la macchina “pensa”, diventa più difficile contestare e verificare.
- IA non è neutra: parte di un modello di business che valorizza i dati raccolti.
- Normalizzare dai primi anni può trasformare gli studenti in “utenti intrappolati” per anni, non solo oggi.
- Si vede già nelle scuole: alcuni usano l’IA per svolgere compiti senza comprenderli davvero.
- Non basta capire come integrare l’IA; serve definire limiti, procedure e regole di uso.
- Serve proteggere privacy e dati: l’apprendimento non può dipendere da piattaforme che tracciano minori.
- Galizia sarà la prima comunità autonoma a usare l’IA per l’abbandono scolastico, ma senza garanzie si rischia l’effetto contrario.
- La scuola non può ridursi a “formare per il mercato”: deve allenare ragionamento, dubbio e autonomia.
- Serve trasparenza: docenti e studenti devono sapere quando l’IA interviene e quale scopo pedagogico copre.
- Valutare il processo, non solo il prodotto: bozze, citazioni e motivazioni devono diventare parte della consegna.
- Chiedere trasparenza sull’uso degli strumenti: distinguete ciò che l’IA ha generato da ciò che lo studente ha capito.
In classe dovete distinguere tra supporto e sostituzione del lavoro dello studente. Nelle verifiche servono prove di processo: bozze, spiegazioni, difesa orale. Se l’alunno consegna solo l’output del chatbot, spariscono errori e strategie. Impostate anche una dichiarazione di uso dell’IA, così valutazione e privacy restano tracciate.
Per la scuola italiana: un ponte culturale tra prudenza sindacale e regole europee
Italia e Spagna condividono la stessa spinta verso l’adozione rapida dell’IA. Con l’AI Act dell’Unione Europea e con il GDPR, le scuole non potranno limitarsi a “provare strumenti”. Servirà documentare usi, rischi e tutela dei minori, evitando che l’IA generi solo output senza competenze. Le parole di Delgado anticipano i punti che il MIM italiano dovrà tradurre in procedure e linee guida. Se l’obiettivo diventa il risultato, la scuola smette di formare persone autonome e critiche.
Come prepararvi in Italia: policy di classe, didattica dell’apprendimento e controlli sui dati
Dirigenti e RSU possono chiedere un regolamento interno sull’uso dell’IA, con ruoli chiari e responsabilità. Definite cosa è consentito in base alle attività: ricerca guidata sì, sostituzione del compito no. Inserite nel Piano dell’Offerta Formativa criteri di valutazione che misurano ragionamento, non solo prodotti finali. Coinvolgete il collegio docenti per definire linee comuni e ridurre disparità tra classi.
Gli Animatori Digitali e i team ICT dovrebbero avviare una verifica “privacy-first” degli strumenti usati. Domandate quali dati entrano nei sistemi, dove vengono memorizzati e per quanto tempo. Preparate anche una scheda tecnica per le famiglie, spiegando benefici, limiti e gestione dei dati. Pretendete configurazioni e procedure che riducano la condivisione di dati personali degli studenti.
In didattica, puntate su attività che rendono visibile l’apprendimento: mappe, bozze commentate e spiegazioni scritte. Richiedete la tracciabilità dell’uso dell’IA, chiedendo agli alunni di indicare cosa hanno chiesto e cosa hanno verificato. E fate sempre difendere il lavoro con domande orali: “come hai capito?” è più educativo di “chi ha scritto”. Se possibile, usate versioni scolastiche controllate, così gli input non finiscono su server pubblici.
Pensate che il nostro Ministero dell’Istruzione adotterà presto misure simili? Siete d’accordo con questa linea europea, che mette al centro apprendimento, privacy e limiti? Ditecelo nei commenti.
FAQs
Ana Delgado (CCOO): rischi IA in aula
L'allarme principale è che l'IA entra nelle attività didattiche con lavori impeccabili ma privi di reale apprendimento, riducendo lo sforzo cognitivo e il pensiero critico. Delgado chiede limiti, trasparenza e garanzie sui dati degli studenti prima di una diffusione su larga scala.
In classe, distinguere chiaramente tra supporto dell'IA e sostituzione del compito; chiedere evidenze di processo come bozze, spiegazioni e difesa orale; introdurre una dichiarazione sull'uso dell'IA e criteri di valutazione che includano ragionamento.
L'IA non è neutra e i dati hanno valore; è essenziale proteggere privacy e minori, verificare raccolta, conservazione e finalità; la scuola deve chiedere trasparenza sull'uso e limitare la condivisione di dati.
La sua posizione anticipa temi regolatori che l'AI Act e il GDPR stanno spingendo a includere; le scuole dovranno documentare usi, rischi e tutela dei minori e non limitarsi all'output, ma al processo di apprendimento.