
“AI literacy”: che cosa significa davvero (Art. 4)
L’articolo 4 impone a provider e deployer di adottare misure per garantire un livello sufficiente di alfabetizzazione/competenza AI alle persone che usano o gestiscono sistemi di AI “per conto” dell’organizzazione (dipendenti, collaboratori, esterni rilevanti). La norma dice anche che la formazione va calibrata su conoscenze/esperienza, contesto d’uso e persone potenzialmente impattate. La Commissione UE ha pubblicato anche una pagina Q&A dedicata proprio a questo obbligo, con indicazioni pratiche (non esiste un “format unico”: conta dimostrare che le misure sono adeguate e proporzionate).
Le date chiave (utile per capire cosa è “già” richiesto oggi)
Dal 2 febbraio 2025: applicazione di divieti e delle prime disposizioni, tra cui l’AI literacy (Capitoli I–II).
Dal 2 agosto 2025: entrano progressivamente in gioco obblighi importanti legati anche ai modelli di AI “general purpose” (GPAI) (con regime transitorio per alcuni modelli già sul mercato).
Dal 2 agosto 2026: gran parte del regolamento diventa pienamente applicabile (incluso il cuore degli obblighi per molti casi “ad alto rischio”).
Sanzioni: l’AI Act prevede multe fino a 35M€ o 7% del fatturato globale (a seconda del tipo di violazione).
Da dove iniziare?
Step 1
Fai un inventario “reale” degli usi di AI in azienda (anche strumenti HR, customer care, marketing, analytics, cybersecurity, fornitori SaaS), indicando scopo, dati usati, output e chi prende la decisione finale (umano o sistema).
Step 2
Classifica ogni caso d’uso per rischio (vietato / alto rischio / trasparenza / altro) e definisci regole interne minime: quando si può usare, con quali controlli, e quando serve escalation legale/compliance.
Step 3
Imposta la governance: ruoli, responsabilità, approvazioni, gestione fornitori, requisiti contrattuali (documentazione, audit, incident reporting), e un registro delle modifiche (perché i sistemi evolvono).
Step 4
Costruisci il programma di AI literacy “a livelli”: base per tutti (concetti, limiti, rischi, uso corretto), avanzato per chi configura/valida/compra AI (dati, bias, sicurezza, privacy, test), specialistico per funzioni sensibili (HR, safety, legale, IT). Conserva evidenze: contenuti, presenze, test, aggiornamenti. (È spesso qui che le aziende “cadono”: fanno formazione, ma non riescono a dimostrarla.).
Step 5
Attiva un ciclo continuo: KPI, incident & near-miss, audit interni, riesami periodici e aggiornamento formazione (anche quando cambia il modello, cambiano i dati o cambia il fornitore).
Nota Italia: “legge nazionale AI”
In Italia è stata pubblicata la Legge 23 settembre 2025, n. 132 (“disposizioni e deleghe… in materia di intelligenza artificiale”), con entrata in vigore 10/10/2025. È un livello aggiuntivo (nazionale) che può introdurre dettagli e deleghe attuative oltre al quadro UE.



