top of page
  • Youtube
  • LinkedIn
  • Facebook

AI ACT

L’AI Act è il Regolamento (UE) 2024/1689: introduce un approccio “risk-based” (più il sistema è rischioso, più obblighi ci sono) e riguarda chi sviluppa/fornisce sistemi di AI e anche chi li utilizza in ambito professionale (deployers).

DOWNLOAD

“AI literacy”: che cosa significa davvero (Art. 4)

L’articolo 4 impone a provider e deployer di adottare misure per garantire un livello sufficiente di alfabetizzazione/competenza AI alle persone che usano o gestiscono sistemi di AI “per conto” dell’organizzazione (dipendenti, collaboratori, esterni rilevanti). La norma dice anche che la formazione va calibrata su conoscenze/esperienza, contesto d’uso e persone potenzialmente impattate. La Commissione UE ha pubblicato anche una pagina Q&A dedicata proprio a questo obbligo, con indicazioni pratiche (non esiste un “format unico”: conta dimostrare che le misure sono adeguate e proporzionate).


Le date chiave (utile per capire cosa è “già” richiesto oggi)

  • Dal 2 febbraio 2025: applicazione di divieti e delle prime disposizioni, tra cui l’AI literacy (Capitoli I–II).

  • Dal 2 agosto 2025: entrano progressivamente in gioco obblighi importanti legati anche ai modelli di AI “general purpose” (GPAI) (con regime transitorio per alcuni modelli già sul mercato).

  • Dal 2 agosto 2026: gran parte del regolamento diventa pienamente applicabile (incluso il cuore degli obblighi per molti casi “ad alto rischio”).

  • Sanzioni: l’AI Act prevede multe fino a 35M€ o 7% del fatturato globale (a seconda del tipo di violazione).


Da dove iniziare?

Step 1

Fai un inventario “reale” degli usi di AI in azienda (anche strumenti HR, customer care, marketing, analytics, cybersecurity, fornitori SaaS), indicando scopo, dati usati, output e chi prende la decisione finale (umano o sistema).

Step 2

Classifica ogni caso d’uso per rischio (vietato / alto rischio / trasparenza / altro) e definisci regole interne minime: quando si può usare, con quali controlli, e quando serve escalation legale/compliance.

Step 3

Imposta la governance: ruoli, responsabilità, approvazioni, gestione fornitori, requisiti contrattuali (documentazione, audit, incident reporting), e un registro delle modifiche (perché i sistemi evolvono).

Step 4

Costruisci il programma di AI literacy “a livelli”: base per tutti (concetti, limiti, rischi, uso corretto), avanzato per chi configura/valida/compra AI (dati, bias, sicurezza, privacy, test), specialistico per funzioni sensibili (HR, safety, legale, IT). Conserva evidenze: contenuti, presenze, test, aggiornamenti. (È spesso qui che le aziende “cadono”: fanno formazione, ma non riescono a dimostrarla.).

Step 5

Attiva un ciclo continuo: KPI, incident & near-miss, audit interni, riesami periodici e aggiornamento formazione (anche quando cambia il modello, cambiano i dati o cambia il fornitore).


Nota Italia: “legge nazionale AI”

In Italia è stata pubblicata la Legge 23 settembre 2025, n. 132 (“disposizioni e deleghe… in materia di intelligenza artificiale”), con entrata in vigore 10/10/2025. È un livello aggiuntivo (nazionale) che può introdurre dettagli e deleghe attuative oltre al quadro UE.

bottom of page