La formazione AI obbligatoria è realtà. Dal 2 febbraio 2025, l'Articolo 4 del Regolamento europeo sull'intelligenza artificiale (AI Act) impone a tutte le aziende che utilizzano sistemi AI di garantire un livello adeguato di "alfabetizzazione in materia di IA" al proprio personale.
La reazione più comune? "Un altro adempimento normativo". Un corso da spuntare, un certificato da archiviare, una riga in più nel registro della compliance.
Ma chi guida un'azienda sa che gli obblighi normativi si dividono in due categorie: quelli che restano costi, e quelli che diventano investimenti. La differenza non sta nella norma, ma in come la si affronta.
Questo articolo è per chi guida un'azienda, CEO, direttori generali e responsabili operativi, e vuole capire cosa prevede l'obbligo di formazione AI, cosa significa nella pratica, e come trasformarlo in un vantaggio competitivo reale. Se stai valutando come adottare l'AI in azienda con risultati concreti, la formazione del team è il primo passo.
Cosa prevede l'obbligo di formazione AI (Art. 4 AI Act)?
I fatti essenziali, senza legalese.
L'Articolo 4 del Regolamento UE 2024/1689 (AI Act) stabilisce che fornitori e utilizzatori di sistemi di intelligenza artificiale devono adottare misure per garantire un livello sufficiente di AI literacy, "alfabetizzazione in materia di IA", al personale che opera con questi sistemi.
L'obbligo è in vigore dal 2 febbraio 2025. L'enforcement, cioè la possibilità di sanzioni, parte dal 2 agosto 2026.
In Italia, la Legge 132/2025 ha recepito il quadro europeo, assegnando all'ACN (Agenzia per la Cybersicurezza Nazionale) e all'AgID i compiti di supervisione e coordinamento.
La definizione di "alfabetizzazione in materia di IA" è nell'Articolo 3, punto 56 del regolamento: le competenze, le conoscenze e la comprensione che consentono a fornitori, deployer e persone interessate di effettuare una distribuzione informata dei sistemi di AI, tenendo conto dei diritti e degli obblighi applicabili.
In pratica: chi usa strumenti AI in azienda deve capire cosa sta usando, con quali limiti, e con quali responsabilità.
Fin qui la norma. Adesso la parte che conta: cosa significa nella pratica.
Chi deve fare la formazione AI in azienda?
Questa è la domanda che genera più confusione. L'AI Act usa il termine "deployer": chi lo è?
Un deployer è qualsiasi organizzazione che utilizza un sistema AI sotto la propria autorità. Non serve svilupparlo o venderlo: basta usarlo. Se la tua azienda usa ChatGPT per generare contenuti, Copilot per scrivere codice, un chatbot per il customer service, o qualsiasi altro strumento basato su AI, sei un deployer.
La formazione AI in azienda non significa formare tutti allo stesso modo. Significa garantire che ogni persona abbia le competenze adeguate al proprio ruolo e al proprio livello di interazione con i sistemi AI.
Facciamo un esempio concreto. Prendiamo un'azienda manifatturiera con 60 persone:
- Direzione (5 persone): il CEO, il CFO e i direttori di funzione. Non usano l'AI direttamente, ma prendono decisioni strategiche su dove e come adottarla. Hanno bisogno di capire le capacità e i limiti dell'AI, i rischi normativi, e come valutare le proposte dei fornitori
- Manager operativi (12 persone): i responsabili di produzione, commerciale, acquisti. Decidono come l'AI viene usata nei loro processi. Hanno bisogno di capire come governare l'uso dell'AI nel loro team, cosa controllare, quando intervenire
- Team operativi (43 persone): chi usa gli strumenti AI quotidianamente. L'ufficio commerciale che usa l'AI per le offerte, il customer service che usa il chatbot, il marketing che genera contenuti. Hanno bisogno di capire come usare gli strumenti in modo efficace e responsabile
Tre gruppi, tre esigenze formative diverse, un unico obbligo normativo. La differenza sta nella profondità, non nell'esclusione.

Quali sono i rischi se non ci si adegua?
I rischi della mancata formazione AI operano su tre livelli, dal più immediato al più strategico.
Rischio legale
L'Articolo 4 non prevede una sanzione diretta specifica, ma la mancata formazione AI costituisce un'aggravante in caso di violazioni dell'AI Act. Le sanzioni possono arrivare fino a 35 milioni di euro o il 7% del fatturato annuo globale, a seconda di quale importo sia superiore.
In pratica: se qualcosa va storto nell'uso dell'AI e il personale non era adeguatamente formato, l'azienda è in una posizione molto più esposta.
Rischio operativo
Persone non formate prendono decisioni basate su output che non comprendono. Un team commerciale che genera offerte con l'AI senza capire come il modello gestisce i dati riservati. Un manager che approva un workflow automatizzato senza sapere dove il sistema può sbagliare. Un ufficio legale che usa l'AI per l'analisi contrattuale senza verificare le allucinazioni del modello.
Non è teoria: sono situazioni che accadono già oggi in aziende che hanno introdotto strumenti AI senza formazione.
Rischio competitivo
Secondo i dati Eurostat 2025, solo il 16% delle aziende italiane utilizza tecnologie AI, contro il 26% della Germania e il 42% della Danimarca. Il divario non è nella tecnologia disponibile: è nella capacità delle organizzazioni di adottarla.
Un'azienda con un team non formato adotta l'AI più lentamente, con più errori, e con meno risultati. Mentre i concorrenti che hanno investito nella formazione accelerano.
Cosa deve coprire concretamente la formazione AI?
L'AI Act, attraverso l'Articolo 4 e il Considerando 29, identifica tre dimensioni che la formazione deve coprire. Le traduciamo in linguaggio operativo.
1. Come funziona l'AI: capacità e limiti
Non serve che tutti diventino data scientist. Serve che chi usa l'AI capisca cosa può fare e cosa non può fare. Che un modello linguistico non "sa" le cose, ma genera risposte statisticamente probabili. Che può produrre output convincenti ma completamente sbagliati (le cosiddette allucinazioni). Che la qualità del risultato dipende dalla qualità dell'input e dal contesto.
Esempio aziendale: il team commerciale che usa l'AI per generare proposte deve sapere che il modello può inventare referenze, citare dati inesistenti, o sottostimare costi. Controllare l'output non è opzionale: è parte del processo.
2. Diritti e responsabilità: chi risponde di un output sbagliato?
L'AI non ha responsabilità giuridica. La responsabilità è sempre dell'azienda e delle persone che utilizzano l'output. Se un'offerta commerciale contiene dati errati generati dall'AI, il cliente contesta l'azienda, non il modello.
La formazione deve chiarire la catena di responsabilità: chi valida l'output, chi decide se usarlo, chi risponde se qualcosa va storto. Senza questa chiarezza, l'AI diventa un modo per deresponsabilizzare le decisioni.
3. Impatto sulle persone: bias e controllo umano
I modelli AI riflettono i bias presenti nei dati di addestramento. Un sistema di screening CV può penalizzare sistematicamente determinati profili. Un chatbot di customer service può trattare diversamente le richieste in base alla formulazione linguistica.
La formazione deve includere la consapevolezza di questi rischi e il principio del controllo umano: l'AI supporta le decisioni, non le sostituisce. Soprattutto nelle decisioni che hanno impatto sulle persone.
Perché un corso generico non basta?
L'AI Act chiede una formazione "adeguata" al contesto. La parola chiave è "adeguata".
Quando affianchiamo aziende che hanno già introdotto strumenti AI senza una formazione specifica, vediamo quasi sempre lo stesso schema: l'AI viene usata come un motore di ricerca più veloce. I collaboratori chiedono, il modello risponde, nessuno verifica sistematicamente l'output. Non perché le persone siano negligenti — è che nessuno ha mai stabilito quando fidarsi del modello e quando controllare. Questo non è un problema tecnico: è un gap formativo. E un corso generico su "cos'è l'AI" non lo colma, perché non parla mai degli strumenti specifici che quel team usa ogni giorno, nei processi specifici in cui li usa.
Un corso online standardizzato su "cos'è l'intelligenza artificiale" può essere un punto di partenza, ma da solo non soddisfa il requisito, perché non è contestualizzato alla realtà dell'azienda.
La formazione AI obbligatoria richiede contestualizzazione. Il team che usa l'AI per le offerte commerciali ha bisogno di capire come il modello gestisce i dati di pricing. Il customer service che usa un chatbot ha bisogno di sapere quando il bot può rispondere autonomamente e quando serve l'intervento umano. La direzione ha bisogno di capire come valutare il ROI di un progetto AI e quali domande fare ai fornitori.
Formazione standardizzata produce competenza generica. Competenza generica produce adozione lenta. Adozione lenta produce risultati mediocri.
Il percorso che funziona è diverso: partire da come l'AI viene effettivamente usata in quella specifica azienda, identificare i gap di competenza per ruolo, e costruire un programma formativo che colmi quei gap specifici.
Quanto costa non formare il team sull'AI?
Il frame va ribaltato. La domanda giusta non è "quanto costa la formazione?", ma "quanto costa non farla?".
Secondo il rapporto McKinsey 2024 sullo stato dell'AI, la maggior parte delle aziende fatica a portare i progetti AI dalla fase pilota alla produzione. Il pattern è sempre lo stesso: prototipo brillante, demo convincente, poi lo stallo. Il motivo principale non è tecnico: è organizzativo. Team che non comprendono la tecnologia, manager che non sanno governarla, direzioni che non sanno valutarla.
Ecco cosa succede quando un'azienda introduce l'AI senza una formazione adeguata:
- Il team commerciale genera offerte con l'AI senza capire come il modello gestisce i dati riservati dei clienti. Un'offerta contenente informazioni riservate di un cliente finisce nella proposta per un concorrente. Il danno reputazionale è incalcolabile
- Un manager approva un progetto AI da 200.000 euro senza avere gli strumenti per valutare il fornitore, la fattibilità tecnica, o i rischi operativi. Il progetto si arena dopo sei mesi senza risultati. Budget bruciato
- Il customer service usa un chatbot AI che risponde ai clienti con informazioni sbagliate. Nessuno nel team sa riconoscere quando il bot sta "allucinando". I reclami aumentano, la soddisfazione cliente cala
La formazione non è un costo da aggiungere: è un investimento che previene costi molto più alti.
Qual è il collegamento tra formazione AI e adozione efficace?
La formazione AI non è un obbligo isolato. È il prerequisito per adottare l'AI con risultati concreti.
Un'organizzazione con un team formato:
- Identifica meglio i processi ad alto valore: le persone che capiscono cosa l'AI può fare individuano dove può generare impatto reale, non dove è più "alla moda"
- Valuta le proposte dei fornitori: un manager formato sa distinguere un progetto AI solido da una demo impressionante che non andrà mai in produzione
- Governa con meno rischio: la catena di responsabilità è chiara, i controlli sono in atto, i bias vengono monitorati
- Adotta più velocemente: team competenti superano la resistenza al cambiamento e iniziano a usare l'AI in modo produttivo in settimane, non in mesi
In altre parole: la formazione non è il fine, è il mezzo. Il fine è un'organizzazione capace di adottare l'AI dove conta davvero, con risultati misurabili e rischi governati.
Chi tratta la formazione come un adempimento ottiene slide e certificati. Chi la tratta come un investimento ottiene un'organizzazione pronta.
Da dove iniziare: i prossimi passi per la tua azienda
Non serve un piano pluriennale. Servono tre passi concreti.
1. Mappare chi usa già strumenti AI
Prima di formare, bisogna sapere chi forma e su cosa. In molte aziende l'AI è già entrata dalla porta di servizio: team che usano ChatGPT, Copilot, o altri strumenti senza una policy aziendale. Il primo passo è una fotografia dello stato attuale: chi usa cosa, per fare cosa, con quali dati.
2. Definire livelli formativi per ruolo
Non tutti hanno bisogno della stessa formazione. Direzione, manager operativi e team operativi hanno esigenze diverse. Definire i livelli significa stabilire cosa deve sapere ciascun gruppo per operare in modo competente e responsabile.
3. Collegare formazione a roadmap di adozione AI
La formazione non è un evento isolato: è il primo passo di un percorso. Un team formato è pronto a identificare i processi dove l'AI genera più valore, valutare le soluzioni disponibili, e governare l'implementazione. Collegare la formazione alla roadmap di adozione trasforma un obbligo normativo in un acceleratore strategico.
Se vuoi capire come strutturare un percorso di formazione AI contestualizzato alla tua azienda, o se stai valutando come passare dalla formazione all'adozione concreta, parliamone.
Domande frequenti
La formazione AI obbligatoria riguarda anche le PMI?
Sì, l'Articolo 4 del Regolamento UE 2024/1689 si applica indipendentemente dalla dimensione dell'azienda. La differenza è nella profondità della formazione richiesta, non nell'obbligo in sé. Anche una PMI che usa ChatGPT per generare offerte commerciali è tenuta a garantire che il personale abbia competenze adeguate.
Entro quando bisogna adeguarsi all'obbligo di formazione AI?
L'obbligo è in vigore dal 2 febbraio 2025. L'enforcement con possibilità di sanzioni parte dal 2 agosto 2026. Chi inizia prima costruisce competenze reali e un vantaggio operativo; chi aspetta l'ultimo momento rischia un adempimento frettoloso che soddisfa la forma ma non la sostanza.
Quali sono le sanzioni per mancata formazione AI?
L'Articolo 4 non prevede una sanzione diretta specifica, ma la mancata formazione costituisce un'aggravante in caso di violazioni dell'AI Act, con sanzioni che possono arrivare fino a 35 milioni di euro o il 7% del fatturato globale. Il rischio maggiore, però, non è la multa: è usare l'AI senza consapevolezza, esponendo l'azienda a decisioni sbagliate e dati non protetti.
Basta un corso online per adempiere all'obbligo di formazione AI?
Il regolamento chiede una formazione "adeguata" al ruolo e al contesto specifico dell'azienda. Un corso online generico può essere un punto di partenza, ma da solo non soddisfa il requisito se non è contestualizzato ai processi, agli strumenti AI effettivamente usati e ai rischi specifici del settore.
Fonti
- Regolamento UE 2024/1689 (AI Act): testo integrale su EUR-Lex. Articolo 4 (obbligo di AI literacy), Articolo 3 punto 56 (definizione di alfabetizzazione in materia di IA), Considerando 29 (motivazione dell'obbligo)
- FAQ Commissione Europea: AI Literacy Questions & Answers. AI Office, 2025
- Legge 23 settembre 2025, n. 132. Legge italiana sull'intelligenza artificiale (Gazzetta Ufficiale)
- McKinsey Global Survey on AI, 2024. The state of AI: dati sull'adozione e la scalabilità dei progetti AI
- Eurostat: Use of artificial intelligence in enterprises, 2025. Adozione AI per paese nell'Unione Europea
