logo della Repubblica italiana

PIA

Piano di Istituto per l'Intelligenza artificiale_ triennio 2025/28

Descrizione

(Delibera del Consiglio di Istituto n. 47 del 25/03/2026)

1. Premessa strategica, culturale e istituzionale

L’introduzione dell’intelligenza artificiale nel sistema scolastico rappresenta uno dei passaggi più delicati e rilevanti della trasformazione contemporanea dell’istruzione. Non si tratta semplicemente di adottare nuovi strumenti tecnologici, ma di governare un cambiamento che incide profondamente sui modi di insegnare, apprendere, valutare, organizzare e vivere la scuola come comunità educante.

L’intelligenza artificiale non è una tecnologia neutra: essa incorpora modelli, criteri di selezione, logiche di funzionamento e finalità che influenzano i processi cognitivi, le relazioni educative, le dinamiche di potere informativo e, potenzialmente, i diritti fondamentali delle persone coinvolte, in particolare dei minori. Per questo motivo la sua introduzione in ambito scolastico non può essere lasciata a iniziative individuali, a sperimentazioni estemporanee o a scelte esclusivamente tecniche, ma richiede una cornice chiara di senso, di responsabilità e di governo istituzionale.

Il presente Piano d’Istituto per l’Intelligenza Artificiale nasce dunque dall’esigenza di affrontare in modo esplicito, consapevole e strutturato l’ingresso dell’IA nella scuola, riconoscendo contemporaneamente:

  • le opportunità che tali tecnologie offrono in termini di personalizzazione dell’apprendimento, inclusione, accessibilità dei contenuti, supporto al lavoro dei docenti e semplificazione dei processi organizzativi;
  • i rischi che esse comportano in termini di affidamento acritico, delega decisionale indebita, opacità dei processi, profilazione indebita, perdita di autonomia cognitiva, compressione dei diritti e riduzione della dimensione relazionale dell’educazione.

La scuola, in quanto istituzione pubblica fondata su principi costituzionali, non può limitarsi a “seguire” l’innovazione tecnologica, ma è chiamata a esercitare una funzione di mediazione culturale, educativa e civile rispetto ai cambiamenti in atto. Essa ha il compito non solo di utilizzare strumenti nuovi, ma soprattutto di insegnare a comprenderli, valutarli criticamente, collocarli entro limiti etici e giuridici, e integrarli in modo coerente con la propria missione formativa ed educativa.

In questa prospettiva, il presente Piano assume una funzione che è al tempo stesso:

  • strategica, perché orienta nel medio periodo le scelte dell’istituto in materia di innovazione digitale e di uso dell’IA;
  • pedagogica, perché definisce il senso educativo dell’impiego delle tecnologie, salvaguardando la centralità della relazione docente–studente e del pensiero umano;
  • giuridica, perché assicura la conformità al quadro normativo europeo e nazionale (AI ACT, GDPR, Linee guida MIM, Linee guida AgID);
  • organizzativa, perché stabilisce ruoli, responsabilità, procedure, fasi di adozione e meccanismi di controllo e rendicontazione.

Il Piano si configura pertanto non come un elenco di strumenti, ma come un dispositivo di governance dell’innovazione, volto a garantire che l’intelligenza artificiale sia introdotta nella scuola in modo proporzionato, graduale, reversibile e sempre subordinato alle finalità educative.

L’Istituto assume in modo esplicito che:

  • l’intelligenza artificiale non può sostituire il pensiero umano, il giudizio professionale del docente, la responsabilità educativa della scuola né la relazione interpersonale che costituisce il cuore dell’atto educativo;
  • nessun sistema automatizzato può assumere decisioni che incidano in modo diretto sul percorso formativo, valutativo o orientativo degli studenti;
  • ogni uso dell’IA deve essere comprensibile, spiegabile, supervisionato e riconducibile a una responsabilità umana identificabile.

 

In questo senso, il Piano non mira a “digitalizzare” la scuola, ma a renderla più consapevole, più competente e più capace di abitare il proprio tempo senza rinunciare alla propria identità. L’innovazione non viene intesa come rottura con la tradizione educativa, ma come suo possibile sviluppo, nella misura in cui essa rafforza – e non indebolisce – i valori della persona, della conoscenza, della responsabilità, della libertà e della dignità umana.

Il presente Piano è quindi espressione di una scelta culturale prima ancora che tecnologica: la scelta di una scuola che non abdica al proprio ruolo di guida, che non delega all’algoritmo ciò che è compito dell’educazione, e che assume su di sé la responsabilità di accompagnare studenti, famiglie e personale in un uso maturo, critico e responsabile dell’intelligenza artificiale.

2. Quadro normativo e riferimenti

Il presente Piano d’Istituto per l’Intelligenza Artificiale è elaborato nel rispetto del quadro normativo europeo, nazionale e amministrativo che disciplina l’uso delle tecnologie digitali e dei sistemi di intelligenza artificiale nei contesti pubblici e, in particolare, in ambito educativo.

La cornice normativa di riferimento non ha carattere meramente formale, ma costituisce il fondamento giuridico e valoriale entro cui si collocano le scelte dell’Istituto, orientando l’adozione dell’IA secondo principi di legalità, responsabilità, proporzionalità, tutela dei diritti fondamentali e protezione dei soggetti vulnerabili.

2.1 Normativa europea

Regolamento (UE) 2024/1689 — “AI ACT”

Il Regolamento (UE) 2024/1689 stabilisce un quadro giuridico uniforme per l’uso dei sistemi di intelligenza artificiale nell’Unione Europea, fondato su un approccio basato sul rischio (risk-based approach), che distingue tra:

  • pratiche vietate perché incompatibili con i diritti fondamentali;
  • sistemi ad alto rischio soggetti a obblighi stringenti;
  • sistemi a rischio limitato soggetti a obblighi di trasparenza;
  • sistemi a rischio minimo.

L’ambito dell’istruzione è espressamente considerato ad elevata sensibilità, in quanto coinvolge soggetti vulnerabili (minori), incide su diritti fondamentali (istruzione, sviluppo della personalità, non discriminazione) e può produrre effetti duraturi sulla vita delle persone.

Il Piano recepisce in modo esplicito:

  • il divieto di sistemi di riconoscimento delle emozioni, sorveglianza occulta e social scoring;
  • il principio di supervisione umana;
  • l’obbligo di valutazione del rischio prima dell’adozione di sistemi IA;
  • il principio di spiegabilità e trasparenza.

Regolamento (UE) 2016/679 — GDPR

Il GDPR disciplina il trattamento dei dati personali e impone specifiche tutele rafforzate per i dati dei minori e per i trattamenti che comportano profilazione, decisioni automatizzate o impatti significativi sui diritti e sulle libertà delle persone.

Il Piano recepisce in particolare:

  • il principio di liceità, correttezza e trasparenza;
  • il principio di minimizzazione dei dati;
  • il principio di limitazione delle finalità;
  • il principio di privacy by design e by default;
  • l’obbligo di valutazione d’impatto (DPIA) nei casi ad alto rischio.

Carta dei diritti fondamentali dell’Unione Europea

Il Piano si fonda sui diritti sanciti dalla Carta, in particolare:

  • dignità umana;
  • protezione dei dati personali;
  • non discriminazione;
  • diritto all’istruzione.

2.2 Normativa nazionale

Decreto Ministeriale n. 166 del 9 agosto 2025 — Linee guida MIM

Il DM 166/2025 stabilisce che ogni istituzione scolastica debba dotarsi di un Piano d’Istituto per l’Intelligenza Artificiale, integrato nel PTOF, quale strumento di pianificazione, governance e monitoraggio dell’innovazione tecnologica.

Il presente Piano costituisce attuazione diretta di tale disposizione.

Codice dell’Amministrazione Digitale (D.Lgs. 82/2005)

Il CAD promuove l’uso delle tecnologie digitali nella Pubblica Amministrazione, ma nel rispetto dei principi di sicurezza, affidabilità, responsabilità e tutela dei diritti.

Legge 92/2019 e Linee guida Educazione civica

L’uso dell’IA è ricondotto anche alla dimensione educativa della cittadinanza digitale, della responsabilità e del pensiero critico.

2.3 Linee guida e documenti di indirizzo

Il Piano si ispira inoltre a:

  • Orientamenti etici per l’uso dell’IA in educazione della Commissione europea;
  • Linee guida AgID sull’adozione dell’IA nella Pubblica Amministrazione;
  • Strategia italiana per l’Intelligenza Artificiale 2024–2026;
  • Piano Triennale per l’Informatica nella PA;
  • Piano Nazionale Scuola Digitale;
  • PNRR – Missione 4 Istruzione e Ricerca.

2.4 Funzione del quadro normativo nel Piano

Il quadro normativo non è inteso come limite all’innovazione, ma come condizione di possibilità di un’innovazione sostenibile, equa e legittima.

Esso consente di:

  • prevenire usi impropri o dannosi delle tecnologie;
  • tutelare studenti, famiglie e personale;
  • garantire trasparenza e accountability;
  • assicurare che l’adozione dell’IA sia coerente con i valori costituzionali e con la missione educativa della scuola.

Il presente Piano si configura quindi come strumento di traduzione operativa del quadro normativo in pratiche organizzative e didattiche concrete, rendendo l’Istituto capace di governare l’innovazione anziché subirla.

3. Principi ispiratori

Il presente Piano d’Istituto per l’Intelligenza Artificiale si fonda su un insieme di principi etici, pedagogici, giuridici e organizzativi che orientano tutte le scelte dell’Istituto in materia di adozione, utilizzo e governance dei sistemi di IA.

Tali principi non hanno carattere astratto, ma costituiscono criteri operativi di valutazione delle tecnologie, dei progetti e delle pratiche che coinvolgono l’uso dell’intelligenza artificiale nella scuola. Essi definiscono ciò che è ammissibile, ciò che è opportuno e ciò che è escluso, e fungono da riferimento per la responsabilità professionale di Dirigente, docenti e personale.

3.1 Centralità della persona e primato della relazione educativa

L’Istituto assume come principio fondamentale la centralità della persona umana e della relazione educativa come cuore del processo formativo.

L’intelligenza artificiale non può in alcun modo sostituire:

  • il giudizio professionale del docente;
  • la responsabilità educativa della scuola;
  • la relazione interpersonale tra docente e studente;
  • il valore formativo dell’errore, del confronto e del tempo di apprendimento.

Ogni utilizzo dell’IA è legittimo solo se rafforza, e non indebolisce, la qualità della relazione educativa e la crescita integrale dello studente.

3.2 Antropocentrismo tecnologico

La tecnologia è posta al servizio dell’essere umano, e non viceversa. L’Istituto rifiuta una visione tecnicistica o deterministica secondo cui il progresso tecnologico costituisce di per sé un valore educativo.

L’IA è valutata non in base alla sua novità o potenza, ma in base al valore educativo, inclusivo e umano che apporta.

3.3 Supervisione umana e responsabilità

Ogni sistema di IA deve essere utilizzato sotto la supervisione effettiva di una persona competente e responsabile.

Non è ammessa alcuna forma di delega decisionale automatizzata in materia di:

  • valutazione degli apprendimenti;
  • orientamento scolastico;
  • disciplina;
  • inclusione;
  • progressione scolastica.

La responsabilità finale rimane sempre in capo a soggetti umani identificabili.

3.4 Tutela dei minori e dei soggetti vulnerabili

Gli studenti sono considerati soggetti vulnerabili ai sensi del GDPR e dell’AI ACT. L’Istituto adotta pertanto un principio di tutela rafforzata che comporta:

  • massima prudenza nell’adozione di strumenti IA;
  • esclusione di sistemi invasivi o opachi;
  • divieto di profilazione comportamentale o emotiva;
  • limitazione rigorosa del trattamento dei dati.

3.5 Trasparenza, spiegabilità e consapevolezza

Ogni utilizzo dell’IA deve essere:

  • dichiarato quando rilevante;
  • comprensibile nei suoi effetti;
  • spiegabile nelle sue logiche di base;
  • riconoscibile come tale.

La scuola promuove la consapevolezza critica verso le tecnologie, contrastando l’illusione di neutralità, infallibilità o oggettività dell’algoritmo.

3.6 Equità e non discriminazione

L’Istituto vigila affinché l’uso dell’IA non produca effetti discriminatori, diretti o indiretti, legati a:

  • genere;
  • origine socio-culturale;
  • disabilità;
  • condizioni economiche;
  • provenienza linguistica o culturale.

Ogni tecnologia deve contribuire a ridurre le disuguaglianze, non ad amplificarle.

3.7 Proporzionalità, gradualità e reversibilità

L’adozione dell’IA avviene secondo criteri di:

  • proporzionalità rispetto agli obiettivi educativi;
  • gradualità nella sperimentazione;
  • reversibilità delle scelte, qualora emergano criticità.

Nessuna tecnologia viene adottata in modo irreversibile o per inerzia.

3.8 Accountability e tracciabilità

Ogni decisione relativa all’adozione dell’IA deve essere documentata, motivata e verificabile.

Questo garantisce:

  • responsabilità istituzionale;
  • trasparenza verso famiglie e comunità;
  • possibilità di revisione e miglioramento continuo.

3.9 Educazione al pensiero critico e alla cittadinanza digitale

La scuola non si limita a usare l’IA, ma educa all’IA.

Gli studenti devono essere accompagnati a:

  • comprendere come funzionano i sistemi;
  • riconoscerne limiti e bias;
  • distinguere tra supporto legittimo e delega impropria;
  • sviluppare un rapporto maturo e responsabile con la tecnologia.

3.10 Rifiuto della sorveglianza e del controllo tecnologico

L’Istituto esclude qualsiasi utilizzo dell’IA finalizzato alla sorveglianza sistematica, al controllo comportamentale o alla normalizzazione automatica degli studenti o del personale.

La scuola è luogo di fiducia, non di monitoraggio.

4. Ambiti di utilizzo dell’Intelligenza Artificiale

Il presente Piano individua in modo esplicito gli ambiti in cui l’intelligenza artificiale può essere utilizzata all’interno dell’Istituto, distinguendo chiaramente tra utilizzi ammessi, utilizzi consentiti solo in forma sperimentale e controllata, e utilizzi espressamente esclusi.

Tale distinzione è necessaria per evitare che l’introduzione dell’IA avvenga in modo informale, disomogeneo o non governato, con il rischio di produrre effetti incoerenti con le finalità educative, discriminatori o lesivi dei diritti delle persone coinvolte.

Gli ambiti di utilizzo sono valutati non solo sotto il profilo tecnico, ma anche sotto quello pedagogico, etico, giuridico e organizzativo.

4.1 Ambito didattico

4.1.1 Finalità

Nell’ambito didattico, l’IA è considerata uno strumento di supporto alla professionalità docente e alla personalizzazione dei percorsi di apprendimento, non un sostituto del lavoro intellettuale dello studente né del giudizio educativo del docente.

L’obiettivo è migliorare la qualità dell’insegnamento, favorire l’inclusione, rendere i contenuti più accessibili e stimolare il pensiero critico.

4.1.2 Utilizzi ammessi

Sono ammessi, sotto la supervisione del docente:

  • supporto alla progettazione didattica (UDA, lezioni, rubriche);
  • creazione di materiali differenziati per livelli e bisogni;
  • sintesi, semplificazione e riformulazione di testi;
  • traduzione e supporto linguistico;
  • generazione di esempi, esercizi, problemi;
  • mappe concettuali e schemi;
  • strumenti compensativi per BES e DSA;
  • attività di educazione all’IA e cittadinanza digitale.

4.1.3 Utilizzi condizionati

Sono consentiti solo in forma sperimentale e controllata:

  • utilizzo di chatbot in classe a scopo dimostrativo;
  • attività di confronto critico tra produzione umana e algoritmica;
  • simulazioni e ambienti generativi per attività interdisciplinari.

Ogni sperimentazione deve essere autorizzata dal Dirigente e monitorata dal GLIA (Gruppo di Lavoro Intelligenza Artificiale).

4.1.4 Utilizzi esclusi

Sono vietati:

  • sistemi che valutano automaticamente gli studenti;
  • strumenti che orientano o selezionano gli studenti;
  • sistemi che profilano stili cognitivi o comportamentali;
  • riconoscimento facciale, emotivo o biometrico;
  • qualsiasi forma di sorveglianza automatizzata.

4.2 Ambito amministrativo e organizzativo

4.2.1 Finalità

In ambito amministrativo l’IA è concepita come strumento per ridurre il carico ripetitivo, aumentare l’efficienza e migliorare la qualità del servizio, senza sostituire la responsabilità giuridica del personale.

4.2.2 Utilizzi ammessi

  • supporto alla redazione di bozze di comunicazioni e circolari;
  • classificazione e archiviazione documentale;
  • analisi di dati aggregati e anonimizzati;
  • supporto alla pianificazione (orari, flussi, risorse);
  • estrazione di informazioni normative.

4.2.3 Utilizzi esclusi

  • decisioni automatizzate su procedimenti amministrativi;
  • profilazione del personale o degli studenti;
  • monitoraggio occulto delle attività;
  • sistemi predittivi con impatto su diritti soggettivi.

4.3 Ambito educativo–formativo (AI Literacy)

L’educazione all’IA è parte integrante del curricolo di educazione civica digitale.

Gli studenti sono accompagnati a:

  • comprendere come funzionano i sistemi;
  • riconoscere limiti, bias, allucinazioni;
  • sviluppare pensiero critico;
  • riflettere sugli impatti sociali, culturali ed etici.

4.4 Ambito inclusivo

L’IA è valorizzata come strumento di accessibilità:

  • sintesi vocale e trascrizione;
  • adattamento linguistico;
  • supporto a disabilità sensoriali o cognitive;
  • facilitazione della comunicazione.

Tali strumenti devono essere scelti con attenzione e con il coinvolgimento del referente inclusione e del DPO.

4.5 Criteri trasversali di valutazione

Ogni utilizzo dell’IA deve rispettare:

  1. Coerenza educativa
  2. Proporzionalità
  3. Trasparenza
  4. Sicurezza e privacy
  5. Supervisione umana
  6. Non discriminazione

5. Classificazione dei sistemi di Intelligenza Artificiale e politica di gestione del rischio

L’Istituto adotta un modello di classificazione e gestione del rischio dei sistemi di intelligenza artificiale conforme all’approccio basato sul rischio previsto dal Regolamento (UE) 2024/1689 (AI ACT), integrato con i principi del GDPR e con le Linee guida nazionali ed europee in materia di tutela dei diritti fondamentali.

L’obiettivo non è quello di valutare la “qualità tecnica” degli strumenti, ma di valutarne l’impatto potenziale sulle persone, sui diritti, sui processi educativi e sull’equilibrio organizzativo dell’Istituto.

La scuola, in quanto istituzione pubblica che opera con minori e in un ambito ad alta sensibilità sociale, assume un principio di precauzione rafforzata, secondo cui in caso di dubbio prevale la tutela delle persone rispetto all’efficienza tecnologica.

5.1 Il modello di classificazione del rischio

Ogni sistema di IA è classificato in una delle seguenti categorie:

  1. a) Sistemi a rischio inaccettabile — vietati

Sono vietati in modo assoluto i sistemi che costituiscono una minaccia per i diritti fondamentali, tra cui:

  • sistemi di riconoscimento delle emozioni;
  • sistemi di sorveglianza biometrica o comportamentale;
  • sistemi di social scoring;
  • sistemi che manipolano comportamenti o opinioni;
  • sistemi che valutano affidabilità, attenzione o “normalità” degli studenti.

Tali sistemi non possono essere utilizzati in alcuna forma nell’Istituto.

  1. b) Sistemi ad alto rischio — esclusione preferenziale

Rientrano in questa categoria i sistemi che incidono in modo significativo su:

  • valutazione;
  • orientamento;
  • ammissione;
  • inclusione;
  • disciplina;
  • progressione scolastica.

L’Istituto adotta una politica di esclusione preferenziale: tali sistemi non sono adottati, salvo casi eccezionali di comprovato beneficio educativo non ottenibile con altri mezzi.

In caso di deroga, sono obbligatori:

  • DPIA (Valutazione di Impatto Privacy);
  • FRIA (Valutazione Impatto Diritti Fondamentali);
  • autorizzazione formale del Dirigente;
  • parere vincolante del DPO;
  • informativa specifica alle famiglie;
  • supervisione umana rafforzata.
  1. c) Sistemi a rischio limitato — ammessi con obblighi

Comprendono:

  • chatbot;
  • generatori di testo, immagini o audio;
  • sistemi di supporto informativo.

Sono ammessi a condizione che:

  • siano chiaramente riconoscibili come IA;
  • non trattino dati personali;
  • siano usati con finalità educative o organizzative;
  • siano supervisionati da personale formato.
  1. d) Sistemi a rischio minimo — ammessi

Strumenti che non presentano rischi significativi, come:

  • strumenti di supporto creativo;
  • generatori di esempi astratti;
  • simulazioni non riferite a persone.

Sono liberamente utilizzabili nel rispetto delle regole del Piano.

5.2 Processo di valutazione del rischio

Ogni nuovo strumento è sottoposto a valutazione preventiva secondo una scheda che analizza:

  1. Finalità d’uso
  2. Tipologia di dati trattati
  3. Categoria di rischio
  4. Impatti sui diritti
  5. Benefici educativi
  6. Rischi potenziali
  7. Misure di mitigazione
  8. Supervisione prevista

5.3 Principio di proporzionalità

La scelta di adottare un sistema deve essere proporzionata rispetto:

  • al beneficio educativo;
  • all’età degli studenti coinvolti;
  • al grado di rischio;
  • alla disponibilità di alternative meno invasive.

5.4 Principio di reversibilità

Ogni adozione è considerata reversibile: se emergono effetti indesiderati, il sistema è dismesso.

5.5 Monitoraggio continuo

Il GLIA effettua:

  • audit periodici;
  • verifica degli effetti reali;
  • aggiornamento della classificazione.

5.6 Ruolo del DPO

Il DPO è coinvolto in:

  • valutazioni di rischio;
  • redazione DPIA;
  • pareri su conformità normativa;
  • segnalazioni di criticità.

6. Governance dell’Intelligenza Artificiale nell’Istituto

Il governo dell’introduzione e dell’utilizzo dell’intelligenza artificiale all’interno dell’Istituto si fonda su un modello di governance chiaro, collegiale, integrato e responsabile, che coinvolge le diverse componenti della comunità scolastica nel rispetto delle competenze e responsabilità istituzionali.

La governance dell’IA non è intesa come un mero adempimento organizzativo, ma come una funzione strategica e permanente dell’Istituto, volta a garantire che l’innovazione tecnologica sia sempre orientata alle finalità educative, conforme alla normativa vigente e coerente con i valori fondanti della scuola pubblica.

6.1 Principi della governance

La governance dell’IA si ispira ai seguenti principi:

  • unità di indirizzo: la responsabilità strategica è unitaria e in capo al Dirigente scolastico;
  • collegialità: le scelte sono discusse negli organi collegiali;
  • integrazione: area didattica e area amministrativa operano in modo coordinato;
  • trasparenza: i processi decisionali sono documentati;
  • responsabilità: ogni funzione è attribuita a soggetti identificabili;
  • accountability: le scelte sono rendicontabili e verificabili.

6.2 Ruolo del Dirigente scolastico

Il Dirigente scolastico:

  • esercita la regia strategica del Piano;
  • emana l’atto di indirizzo;
  • nomina il Referente per l’IA;
  • istituisce il Gruppo di Lavoro per l’IA (GLIA);
  • autorizza sperimentazioni e adozioni;
  • garantisce il raccordo con PTOF, RAV e PDM;
  • assicura la conformità normativa.

Il Dirigente è garante ultimo della coerenza del Piano con la missione educativa e con il quadro normativo.

6.3 Referente per l’Intelligenza Artificiale

Il Referente per l’IA:

  • coordina operativamente l’attuazione del Piano;
  • supporta docenti e personale;
  • cura la documentazione;
  • funge da interfaccia tra scuola, DPO ed esperti esterni;
  • raccoglie buone pratiche e criticità;
  • promuove la formazione.

6.4 Gruppo di Lavoro per l’IA (GLIA)

Il GLIA è l’organo tecnico-pedagogico di supporto alla governance.

Composizione:

  • dirigente scolastico
  • DSGA;
  • DPO (su aspetti privacy);
  • animatore digitale
  • docenti rappresentativi degli ordini di scuola;
  • referente inclusione;
  • eventuali esperti esterni.

Funzioni:

  • valutazione progetti;
  • analisi dei rischi;
  • monitoraggio delle sperimentazioni;
  • predisposizione linee guida e schede;
  • audit periodici;
  • report annuale.

6.5 Collegio dei Docenti

Il Collegio:

  • discute e approva il Piano;
  • definisce indirizzi didattici;
  • valuta le sperimentazioni;
  • integra l’IA nella progettazione educativa.

6.6 Consiglio d’Istituto

Il Consiglio d’Istituto:

  • approva il Piano in quanto documento strategico;
  • valuta impatti organizzativi ed economici;
  • garantisce il coinvolgimento delle famiglie.

6.7 Ruolo del DPO

Il DPO:

  • fornisce consulenza giuridica;
  • valuta conformità GDPR e AI ACT;
  • partecipa alle DPIA e FRIA;
  • segnala criticità;
  • supporta la redazione delle informative.

6.8 Coinvolgimento delle famiglie

Le famiglie:

  • sono informate sugli strumenti adottati;
  • possono esprimere osservazioni;
  • ricevono informative chiare e accessibili.

6.9 Documentazione e trasparenza

Sono documentati:

  • atti di indirizzo;
  • schede di progetto;
  • valutazioni di rischio;
  • report di monitoraggio;
  • revisioni del Piano.

7. Processo di adozione, sperimentazione e monitoraggio dei sistemi di IA

Il presente Piano stabilisce un processo strutturato, graduale e controllato per l’adozione dei sistemi di intelligenza artificiale, al fine di garantire che ogni scelta tecnologica sia coerente con le finalità educative dell’Istituto, conforme al quadro normativo vigente e sostenibile sotto il profilo organizzativo, etico e giuridico.

L’introduzione dell’IA non avviene per iniziativa individuale, ma esclusivamente attraverso un percorso istituzionale che prevede fasi distinte, responsabilità definite, documentazione obbligatoria e momenti di verifica.

7.1 Fase 1 — Individuazione del bisogno

Ogni proposta di utilizzo di un sistema di IA deve partire dall’individuazione di un bisogno educativo o organizzativo concreto.

Il bisogno deve essere:

  • chiaramente descritto;
  • riferito a un problema reale dell’Istituto;
  • coerente con il PTOF, il RAV e il Piano di Miglioramento.

Non sono ammesse adozioni motivate esclusivamente da curiosità tecnologica o moda.

7.2 Fase 2 — Proposta progettuale

Il proponente (docente, ufficio, dipartimento) compila una Scheda di Progetto contenente:

  • descrizione del bisogno;
  • obiettivi;
  • strumento IA proposto;
  • finalità d’uso;
  • benefici attesi;
  • soggetti coinvolti;
  • durata della sperimentazione;
  • dati eventualmente trattati;
  • categoria di rischio presunta.

7.3 Fase 3 — Valutazione del rischio e conformità

Il GLIA, con il supporto del DPO:

  • valuta il livello di rischio (AI ACT);
  • verifica se vi è trattamento di dati personali;
  • valuta l’impatto su diritti e processi educativi;
  • definisce misure di mitigazione.

Se necessario, vengono attivate DPIA e/o FRIA.

7.4 Fase 4 — Autorizzazione

Il Dirigente scolastico, sentito il GLIA e il DPO:

  • autorizza la sperimentazione,
  • chiede integrazioni,
  • oppure respinge la proposta.

L’autorizzazione è formale e documentata.

7.5 Fase 5 — Sperimentazione controllata

La sperimentazione:

  • è limitata nel tempo;
  • è limitata nel perimetro (classi, uffici);
  • è supervisionata;
  • è monitorata.

Sono raccolti dati qualitativi su efficacia, criticità e impatti.

7.6 Fase 6 — Monitoraggio e verifica

Durante la sperimentazione il GLIA:

  • monitora l’uso reale dello strumento;
  • verifica il rispetto delle regole;
  • raccoglie feedback da docenti e studenti;
  • segnala anomalie o rischi.

7.7 Fase 7 — Valutazione finale

Al termine:

  • si valuta il raggiungimento degli obiettivi;
  • si analizzano effetti positivi e negativi;
  • si valutano costi e benefici;
  • si verifica la sostenibilità.

7.8 Fase 8 — Decisione

Il Dirigente può:

  • adottare stabilmente lo strumento;
  • prorogare la sperimentazione;
  • sospendere o dismettere lo strumento.

7.9 Fase 9 — Rendicontazione e revisione

Le decisioni sono documentate e inserite:

  • nel report annuale del GLIA;
  • nella revisione del Piano;
  • nella rendicontazione sociale.

8. Formazione, accompagnamento e sviluppo delle competenze (AI Literacy)

L’Istituto riconosce che l’adozione responsabile dell’intelligenza artificiale non è principalmente una questione tecnologica, ma una questione di competenze professionali, culturali ed etiche.

Per questo motivo la formazione (AI Literacy) è considerata una condizione necessaria e preliminare per qualsiasi utilizzo dell’IA nella scuola. Senza una formazione adeguata di docenti, personale ATA, studenti e famiglie, l’IA rischia di essere utilizzata in modo acritico, improprio o dannoso.

Il presente Piano definisce quindi un sistema strutturato e permanente di formazione e accompagnamento che coinvolge tutte le componenti della comunità scolastica, con livelli, obiettivi e modalità differenziate.

8.1 Finalità della formazione

La formazione ha le seguenti finalità:

  • sviluppare consapevolezza critica sull’IA;
  • fornire competenze tecniche di base;
  • garantire conoscenza del quadro normativo;
  • prevenire usi impropri e rischiosi;
  • promuovere un uso etico e pedagogicamente fondato;
  • sostenere l’innovazione didattica in modo responsabile.

8.2 Formazione del personale docente e Dirigente

Obiettivi:

  • comprendere il funzionamento dei sistemi di IA;
  • conoscere limiti, bias, errori e allucinazioni;
  • integrare l’IA nella progettazione didattica;
  • saper valutare criticamente strumenti e output;
  • conoscere gli obblighi normativi.

Contenuti:

  • tipologie di IA e modelli generativi;
  • prompt e qualità delle richieste;
  • bias algoritmici;
  • AI ACT e GDPR;
  • dichiarazione dell’uso;
  • esempi didattici per ordine di scuola.

Modalità:

  • formazione iniziale obbligatoria;
  • laboratori guidati;
  • comunità di pratica;
  • formazione dipartimentale;
  • aggiornamento annuale.

8.3 Formazione del personale ATA e amministrativo, DSGA e Dirigente

Obiettivi:

  • comprendere rischi giuridici;
  • usare l’IA per semplificazione documentale;
  • evitare trattamenti illeciti di dati;
  • riconoscere sistemi ad alto rischio.

Contenuti:

  • IA e procedimenti amministrativi;
  • protezione dati personali;
  • uso responsabile nei flussi documentali;
  • sicurezza informatica.

8.4 Educazione degli studenti

L’educazione all’IA è parte integrante dell’educazione civica digitale.

Obiettivi:

  • comprendere cosa è l’IA e cosa non è;
  • riconoscere errori e limiti;
  • sviluppare pensiero critico;
  • distinguere tra supporto e delega;
  • comprendere implicazioni etiche e sociali.

Modalità:

  • percorsi disciplinari e interdisciplinari;
  • attività guidate in classe;
  • discussioni e riflessioni;
  • analisi di casi.

8.5 Coinvolgimento delle famiglie

Le famiglie sono coinvolte tramite:

  • incontri informativi;
  • materiali divulgativi;
  • pubblicazione del Piano;
  • canali di comunicazione istituzionale.

8.6 Accompagnamento e supporto

Il Referente IA e il GLIA garantiscono:

  • supporto continuo ai docenti;
  • consulenza nella progettazione;
  • aiuto nella valutazione degli strumenti;
  • supporto nella gestione delle criticità.

8.7 Valutazione dell’efficacia della formazione

La scuola valuta:

  • partecipazione;
  • ricaduta didattica;
  • qualità delle pratiche;
  • riduzione delle criticità.

9. Monitoraggio, valutazione, rendicontazione e revisione del Piano

Il presente Piano d’Istituto per l’Intelligenza Artificiale è concepito come documento dinamico, soggetto a monitoraggio continuo, valutazione periodica e revisione sistematica.

L’Istituto assume che l’innovazione tecnologica, per sua natura, evolve rapidamente e produce effetti che non sempre sono immediatamente prevedibili. È pertanto necessario dotarsi di meccanismi strutturati di osservazione, verifica e correzione che consentano di intercettare tempestivamente criticità, effetti indesiderati o nuove opportunità, mantenendo sempre il governo consapevole del processo.

9.1 Finalità del monitoraggio

Il monitoraggio ha le seguenti finalità:

  • verificare la coerenza tra pratiche e principi del Piano;
  • valutare l’efficacia educativa e organizzativa degli strumenti adottati;
  • individuare rischi emergenti;
  • prevenire effetti negativi sui diritti delle persone;
  • orientare il miglioramento continuo.

9.2 Soggetti responsabili

Il monitoraggio è affidato al:

  • Gruppo di Lavoro per l’IA (GLIA), che svolge funzione tecnica e operativa;
  • Dirigente scolastico, che esercita la supervisione strategica;
  • DPO, per i profili di protezione dati e diritti fondamentali;
  • Collegio dei Docenti, per la valutazione pedagogica.

9.3 Oggetti del monitoraggio

Sono monitorati:

  • gli strumenti effettivamente utilizzati;
  • i casi d’uso reali;
  • il rispetto delle regole del Piano;
  • eventuali trattamenti di dati personali;
  • segnalazioni di criticità;
  • impatti sugli studenti (inclusione, equità, benessere);
  • ricadute sulla didattica e sull’organizzazione.

9.4 Strumenti di monitoraggio

Il monitoraggio utilizza:

  • report delle sperimentazioni;
  • questionari a docenti e personale;
  • feedback qualitativi degli studenti;
  • segnalazioni al Referente IA;
  • audit interni;
  • verifiche del DPO;
  • analisi dei reclami o delle osservazioni delle famiglie.

9.5 Indicatori di valutazione

Sono adottati indicatori quali:

  • livello di partecipazione ai percorsi formativi;
  • numero e qualità dei progetti avviati;
  • riduzione dei carichi ripetitivi;
  • miglioramento dell’inclusione;
  • assenza di violazioni normative;
  • percezione di utilità e sicurezza.

9.6 Rendicontazione

Il GLIA redige annualmente un rapporto che include:

  • strumenti adottati;
  • progetti attivi;
  • esiti raggiunti;
  • criticità emerse;
  • proposte di miglioramento.

Il rapporto è presentato al Collegio dei Docenti e al Consiglio d’Istituto.

9.7 Revisione del Piano

Sulla base del monitoraggio, il Piano può essere:

  • confermato;
  • aggiornato;
  • modificato;
  • integrato;
  • in parte ritirato.

La revisione è approvata dagli organi collegiali competenti.

9.8 Trasparenza verso la comunità

Le informazioni essenziali sono rese pubbliche tramite:

  • sito istituzionale;
  • incontri informativi;
  • comunicazioni alle famiglie.

10. Conclusioni, impegno dell’Istituto e visione di lungo periodo

Il presente Piano d’Istituto per l’Intelligenza Artificiale rappresenta una scelta consapevole, responsabile e ponderata dell’Istituto rispetto a una delle trasformazioni più rilevanti del nostro tempo.

La scuola non è estranea al cambiamento tecnologico, ma non ne è neppure semplice destinataria. Essa è chiamata a svolgere una funzione di mediazione culturale, educativa e civile, aiutando le nuove generazioni a comprendere il mondo in cui vivono, a orientarsi in esso con spirito critico e a costruire il proprio futuro con libertà e responsabilità.

L’intelligenza artificiale, come ogni tecnologia potente, porta con sé opportunità e rischi. Può ampliare l’accesso al sapere, sostenere l’inclusione, favorire nuove forme di creatività e personalizzazione dell’apprendimento. Ma può anche produrre opacità, dipendenza, delega acritica, disuguaglianze e forme sottili di controllo o standardizzazione.

Per questo l’Istituto assume una posizione chiara: l’IA è uno strumento al servizio dell’educazione, non il suo criterio, non il suo motore e non il suo fine.

L’educazione resta un atto umano, relazionale, intenzionale, che non può essere automatizzato né delegato. La responsabilità educativa resta in capo alla scuola, ai docenti, alle famiglie e alla comunità, e non può essere trasferita ad alcun sistema tecnologico.

Con questo Piano l’Istituto si impegna a:

  • governare consapevolmente l’innovazione, senza subirla e senza rifiutarla;
  • proteggere in modo prioritario i diritti, la dignità e il benessere degli studenti;
  • promuovere un uso critico, etico e responsabile delle tecnologie;
  • mantenere il primato della persona e della relazione educativa;
  • rendere l’innovazione coerente con i valori costituzionali e con la missione pubblica della scuola.

Il Piano non è una dichiarazione di modernità, ma una dichiarazione di responsabilità.

Esso non promette una scuola più tecnologica, ma una scuola più consapevole. Non promette più automazione, ma più discernimento. Non promette efficienza a ogni costo, ma qualità educativa sostenibile.

In questa prospettiva, l’Istituto si colloca in una tradizione educativa che ha sempre saputo integrare il nuovo senza perdere il senso del proprio compito fondamentale: accompagnare le persone nella crescita, nella conoscenza di sé e del mondo, nella costruzione di una cittadinanza libera, responsabile e solidale.

Il Piano è quindi un impegno nel tempo: a vigilare, a correggere, a migliorare, a interrogarsi continuamente sull’impatto delle proprie scelte e a non smettere mai di mettere al centro ciò che rende la scuola una scuola — le persone.

11. Durata, validità, aggiornamento e valore vincolante del Piano

Il presente Piano d’Istituto per l’Intelligenza Artificiale ha validità triennale ed è riferito al triennio di programmazione dell’Istituto, in coerenza con il ciclo di validità del Piano Triennale dell’Offerta Formativa (PTOF).

Il Piano entra in vigore a seguito dell’approvazione da parte del Collegio dei Docenti e del Consiglio d’Istituto ed è pubblicato sul sito istituzionale della scuola ai fini della trasparenza e della conoscibilità da parte di tutta la comunità scolastica.

11.1 Durata

La durata del Piano è fissata in tre anni scolastici consecutivi a partire dall’anno di approvazione, salvo:

  • modifiche normative sopravvenute;
  • indicazioni ministeriali o dell’Autorità di controllo;
  • criticità gravi emerse in fase di attuazione;
  • esigenze organizzative straordinarie.

In tali casi il Piano può essere aggiornato anche prima della scadenza naturale.

11.2 Aggiornamento e revisione

Il Piano è soggetto a:

  • revisione annuale ordinaria in sede di monitoraggio;
  • revisione straordinaria in caso di mutamenti rilevanti.

Le proposte di modifica sono formulate dal GLIA e sottoposte:

  • al Collegio dei Docenti per gli aspetti didattici;
  • al Consiglio d’Istituto per gli aspetti organizzativi e generali.

11.3 Valore vincolante

Il Piano ha valore di atto di indirizzo e regolazione interna dell’Istituto.

Esso è vincolante per:

  • il personale docente;
  • il personale ATA;
  • i collaboratori esterni che operano nell’Istituto;
  • gli studenti, nei limiti delle regole di istituto;
  • i fornitori di servizi tecnologici.

Ogni utilizzo dell’IA in ambito scolastico deve essere conforme a quanto previsto dal Piano.

11.4 Rapporti con altri documenti

Il Piano si coordina con:

  • PTOF;
  • RAV;
  • Piano di Miglioramento;
  • Regolamento di Istituto;
  • Patto educativo di corresponsabilità;
  • Regolamento privacy.

In caso di contrasto prevale la normativa sovraordinata.

11.5 Trasparenza

Il Piano è:

  • pubblicato sul sito;
  • illustrato alla comunità scolastica;
  • disponibile per consultazione.

 

Circolari, notizie, eventi correlati