L'approfondimento

L’AI a scuola. La preside Costarelli: “Progetti per ogni Istituto”. Cacciatore (Engineering): “Formazione chiave per innovare”

di |

Con la pubblicazione delle linee guida del Ministero dell’Istruzione e del Merito prende forma il percorso che porterà all’introduzione dell’intelligenza artificiale negli istituti scolastici italiani. I commenti di Cristina Costarelli, presidente ANP Lazio, e di Emanuele Cacciatore, direttore Innovation & Go-To Market di Engineering.

Alle soglie dell’inizio del nuovo anno scolastico, il tanto atteso provvedimento sull’introduzione dell’Intelligenza artificiale nelle scuole è finalmente realtà. O quasi. Con la pubblicazione delle Linee Guida da parte del Ministero dell’Istruzione e del Merito (MIM) si apre uno scenario inedito che coinvolge dirigenti scolastici, docenti, personale amministrativo, studenti e, più in generale, l’intero ecosistema che gravita intorno al mondo della scuola. Tuttavia, al momento, si tratta di un tracciato piuttosto generalista al quale seguirà poi un vero e proprio decreto attuativo. La normativa finale relativa all’integrazione dell’AI nella didattica, e non solo, non sarà dunque applicabile già da questo settembre, bensì verosimilmente dall’anno scolastico 2026, anche in attesa della validazione dei progetti pilota da parte dell’Invalsi, l’Istituto nazionale per la valutazione del sistema educativo di istruzione e di formazione.

Rischi e vantaggi dell’AI a scuola

Entrando nel merito della questione è impossibile non chiedersi cosa significa, in concreto, introdurre l’intelligenza artificiale nei contesti scolastici con un approccio realmente antropocentrico. Quali vantaggi e quali rischi comporta una tecnologia che, in fondo, conosciamo ancora solo in parte?

Se è vero che la formazione degli studenti rappresenta la condizione imprescindibile per poter sfruttare in futuro tutte le potenzialità dell’IA generativa nei diversi contesti, l’ago della bilancia sembra al momento propendere dalla parte dei benefici. Si pensi, ad esempio, alla semplificazione dei processi attraverso la digitalizzazione e l’automazione delle attività amministrative, o alle nuove modalità di interazione tra scuole, studenti e famiglie, con un accesso più immediato alle informazioni e risposte più rapide ed efficienti.

Diventerebbe invece critico l’impiego dell’IA in ambiti che il Regolamento classifica come ad alto rischio, come la valutazione del rendimento degli studenti o le decisioni sull’ammissione e l’assegnazione a diversi istituti di formazione.

In questo quadro, il ruolo dei deployer e dei fornitori si rivela centrale: dai primi dipendono il monitoraggio e l’applicazione corretta delle soluzioni, dai secondi la definizione di modelli tecnologici affidabili e trasparenti.

Gli stakeholder coinvolti

Non solo gli istituti, ma anche aziende, consulenti ed esperti esterni saranno chiamati a tradurre in pratiche concrete i principi propugnati nelle 34 pagine del documento diffuso dal MIM, trasformando linee guida in strumenti e soluzioni operative. Non sorprende, quindi, che in questa fase si sia scelto di dare maggiore attenzione ai requisiti tecnici dei fornitori, con un focus particolare sulla protezione dei dati personali, piuttosto che al merito della didattica.

In sintesi, la strategia proposta dal Governo si inserisce nel solco degli atti internazionali e nazionali già esistenti in materia di intelligenza artificiale, ma per la prima volta viene declinata all’interno di un contesto peculiare e delicato come quello scolastico, che più di ogni altro necessita di un quadro di riferimento chiaro e condiviso. Proprio per questo, però, rischia di deludere chi si attendeva indicazioni operative più concrete, capaci di valorizzare i progetti già avviati e le esperienze didattiche sperimentate sul campo.

Promuovere l’AI nel pieno rispetto dei valori europei

A ispirare le linee guida sono stati alcuni riferimenti normativi e strategici di rilievo internazionale e nazionale. Tra questi l’AI Act del Parlamento e del Consiglio europeo, la Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law del Consiglio d’Europa (5 settembre 2024), le Ethical Guidelines on the use of Artificial Intelligence (AI) and data in teaching and learning for Educators della Commissione europea, nonché la Strategia nazionale per l’intelligenza artificiale 2024-2026 elaborata dall’AgID e dal Dipartimento per la Trasformazione Digitale.

Un ruolo significativo, per l’Italia, è rivestito anche dal Disegno di legge “Disposizioni e deleghe al Governo in materia di intelligenza artificiale già approvato in seconda lettura dal Parlamento e ora all’esame del Senato per la versione definitiva.

Si tratta, in larga parte, di un quadro regolatorio ancora in via di definizione, ma che conferma una priorità imprescindibile: far evolvere le straordinarie potenzialità dell’intelligenza artificiale garantendo al tempo stesso il pieno rispetto dei diritti fondamentali, delle normative vigenti e dei valori dell’Unione Europea.

Una fotografia più chiara dello stato dell’arte lo offre a Key4biz Cristina Costarelli, Presidente ANP (Associazione Nazionale Presidi) Lazio.

Le linee guida per l’introduzione dell’intelligenza artificiale nelle scuole erano attese da tempo ed erano indispensabili per offrire agli istituti una cornice di riferimento chiara. Il documento affronta i principali aspetti legati all’IA, che in forme basiche è presente da decenni nella didattica, ma che negli ultimi anni si è affermata in versione generativa: la vera novità, potente e di grande impatto.

È quindi essenziale che le scuole dispongano di un quadro di riferimento, da declinare poi in regolamenti più specifici, differenziati in base al tipo e all’ordine scolastico. In un istituto tecnico o scientifico, ad esempio, l’applicazione dell’IA avrà caratteristiche diverse rispetto a una scuola primaria o secondaria di primo grado” ha commentato la dirigente.

Le linee guida individuano due direzioni fondamentali – ha spiegato – da un lato lo sviluppo delle potenzialità, dall’altro la consapevolezza dei rischi. Centrali restano i principi etici che devono orientare l’uso di uno strumento che può offrire molto, ma che va gestito con responsabilità.

È lontana l’idea che l’intelligenza artificiale possa sostituire gli insegnanti. Al contrario, il loro ruolo diventa ancora più cruciale in questa fase di trasformazione epocale. Se in passato, con i materiali cartacei, alcuni rischi non esistevano, oggi ci troviamo di fronte a tecnologie che possono rivelarsi potenti ma anche pericolose. Per questo è fondamentale che i docenti guidino e indirizzino gli studenti, valorizzando le potenzialità dell’IA, ad esempio in tema di inclusione: dagli strumenti innovativi a disposizione degli alunni con disabilità alle possibilità di mediazione e traduzione immediata per studenti di origine straniera.

Le opportunità sono enormi, ma vanno incanalate attraverso regole chiare. Le linee guida rappresentano dunque un punto di partenza: un testo volutamente ampio, che demanda alle singole scuole la definizione di regolamenti più dettagliati, soggetti a continui aggiornamenti. Ogni istituto potrà così tracciare il proprio percorso, adattandolo alle esigenze specifiche.

Decisiva, infine, è la formazione dei docenti, su cui si sta investendo molto anche grazie ai fondi del PNRR. Esistono quindi le basi per accompagnare un’introduzione piena e strutturata dell’intelligenza artificiale nel sistema scolastico, con l’obiettivo di trasformare una sfida complessa in un’opportunità educativa e culturale” ha concluso Costarelli.

Il ruolo delle aziende, il commento di Emanuele Cacciatore, Engineering

I risultati di diverse ricerche nazionali e internazionali dimostrano che gli studenti e le istituzioni scolastiche sono sempre più consapevoli del ruolo centrale dell’AI, ma emerge chiaramente una duplice necessità: da una parte potenziare le competenze in questo ambito, dall’altra rendere accessibile e sicura la tecnologia” ha spiegato Emanuele Cacciatore, Offering, Innovation & Go-To Market Director di Engineering.


“Il potenziamento delle competenze –
ha aggiunto – passa attraverso l’integrazione nei programmi didattici dei contenuti sull’AI e sulle tecnologie che la abilitano. Nello stesso tempo bisogna favorire lo sviluppo di competenze orizzontali come creatività, immaginazione, empatia, pensiero critico ed integrarle con le competenze tecnologiche di base. Il futuro dell’istruzione, infatti, non si baserà più solo sulla trasmissione di conoscenze, ma sulla capacità di formare individui in grado di affrontare in modo consapevole, sicuro e responsabile le trasformazioni tecnologiche.


Attraverso la nostra Academy, in Engineering siamo impegnati costantemente nella diffusione della cultura digitale, avviando continue collaborazioni con le scuole.
Nello stesso tempo, possiamo fornire un contributo importante anche per garantire un accesso sicuro e responsabile alle nuove tecnologie, ad esempio mettendo a disposizione strumenti e infrastrutture AI conformi ai più elevati standard di cybersecurity e supportando la salvaguardia della protezione dei dati sensibili degli studenti e dei docenti in logica privacy-by-design”
commenta Cacciatore che poi conclude:
“Attraverso le nostre soluzioni, come ad esempio EngGPT, garantiamo inoltre l’adozione dei principi di Responsible AI, grazie a modelli trasparenti, auditabili e privi di bias, sviluppati in logica responsible-by-design e in linea con le linee guida europee sull’AI Act, nella convinzione che l’Intelligenza Artificiale, soprattutto se introdotta in un ecosistema come quello scolastico, debba sempre rimanere uno strumento affidabile e sicuro
.”

Quali responsabilità?

In questa fase risulta dunque particolarmente rievante il ruolo delle aziende. Le linee guida del Ministero, in merito, individuano alcune responsabilità chiave. La scelta del fornitore non può essere infatti casuale, ma deve seguire rigorosi standard di sicurezza e qualità per garantire un’implementazione etica, sicura e vantaggiosa. Con riguardo al trattamento dei dati personali ad esempio, nell’ambito dei progetti che saranno attivati in materia di IA, l’Istituzione scolastica, in qualità di titolare del trattamento, può individuare e autorizzare uno o più soggetti, particolarmente qualificati, allo svolgimento delle attività fornendo specifiche istruzioni.

Più nel dettaglio, tra gli specifici criteri di affidabilità che le aziende che offrono soluzioni di IA per il settore educativo devono rispettare, vi sono:

  • Certificazioni di sicurezza: è essenziale che i fornitori possiedano certificazioni riconosciute a livello internazionale, come la ISO/IEC 27001, che attesta un solido sistema di gestione della sicurezza delle informazioni. Nel contesto italiano, è altrettanto rilevante la certificazione AgID per i servizi SaaS (Software as a Service), che conferma l’idoneità del servizio a operare con la Pubblica Amministrazione, scuole incluse.
  • Gestione dei dati sensibili: le soluzioni IA utilizzate nelle scuole gestiscono spesso dati personali e sensibili degli studenti e del personale. Le aziende devono dimostrare in modo chiaro come proteggono questi dati, rispettando le normative sulla privacy (GDPR) e garantendo che non vengano utilizzati per scopi non educativi.
  • Trasparenza e tracciabilità: è cruciale che le aziende forniscano informazioni trasparenti sul funzionamento dei loro algoritmi. Questo include spiegare come vengono prese le decisioni e come i dati sono elaborati, permettendo di verificarne l’equità e di evitare pregiudizi. La tracciabilità delle operazioni assicura inoltre la possibilità di audit e verifiche in caso di necessità.
  • Sicurezza delle comunicazioni: i sistemi devono garantire la protezione delle comunicazioni tra gli utenti e la piattaforma, utilizzando protocolli crittografici per prevenire intercettazioni o accessi non autorizzati.

Impatto e responsabilità etica

Al di là degli aspetti tecnici e certificativi, le aziende hanno una responsabilità etica profonda. Dovranno, infatti, assicurarsi che le loro soluzioni di IA siano progettate per potenziare l’apprendimento e non per sostituire l’interazione umana.

Inoltre, è compito delle aziende offrire una formazione adeguata a docenti e dirigenti scolastici per l’utilizzo consapevole e critico delle loro tecnologie. Una partnership efficace si basa sulla collaborazione e sulla condivisione di conoscenze, non sulla semplice vendita di un prodotto. La vera rivoluzione non starebbe dunque nell’introduzione di nuovi strumenti, ma nel modo in cui aziende e scuole scelgono di avviare nuove partnership in grado di trasformare l’AI in un partner fidato per insegnanti e studenti.

Approccio metodologico “graduale”

In definitiva, la vera certezza di questo primo passo regolatorio è che saranno i singoli istituti a decidere come introdurre l’intelligenza artificiale, adattandone le applicazioni al proprio contesto, purché attraverso progetti specifici approvati. A questo proposito, le Linee guida indicano un approccio metodologico graduale in quattro fasi:

  1. Definizione – Individuazione dei bisogni e dei casi d’uso più rilevanti, valutando la maturità digitale dell’istituto e coinvolgendo attivamente dirigenti, docenti, studenti, famiglie e partner esterni in un processo partecipativo.
  2. Pianificazione – Elaborazione di un piano dettagliato con obiettivi, risorse, ruoli e strategie di gestione dei rischi, con particolare attenzione alla tutela dei dati e dei diritti fondamentali.
  3. Adozione – Implementazione graduale dei sistemi di IA, affiancata da attività di comunicazione, formazione e monitoraggio degli esiti, per un utilizzo consapevole ed efficace.
  4. Monitoraggio – Verifica costante dell’avanzamento dei progetti e del funzionamento dei sistemi di IA, con attenzione ad anomalie, risultati inattesi e violazioni dei dati personali. Questa fase prevede anche la rivalutazione periodica dei rischi e degli impatti, oltre alla condivisione dei risultati con organi collegiali e stakeholder, in un’ottica di miglioramento continuo e di rendicontazione sociale.

SCARICA LE LINEE GUIDA

Leggi le altre notizie sull’home page di Key4biz