SHARE
facebook linkedin

AI Act: cosa cambia dal 2 agosto per l’intelligenza artificiale in azienda

Dalle nuove regole per i modelli generalisti alle sanzioni, una guida chiara agli aggiornamenti del regolamento europeo.
di Arianna Sassi
del 08 Agosto 2025

L'immagine concettuale rappresenta l'AI Act europeo. Al centro, un profilo di testa umana con un cervello luminoso e una rete neurale in toni di blu, da cui si irradia una luce calda. A sinistra, cerchi concentrici con simboli digitali e legali, come la bilancia della giustizia e un martelletto, che simboleggiano la regolamentazione dell'intelligenza artificiale. Lo sfondo è un gradiente di blu scuro e brillante, senza bordi.

Continua il percorso di attuazione dell’AI Act, il regolamento europeo che stabilisce le regole sull’uso dell’intelligenza artificiale. Dopo l’entrata in vigore, a febbraio, delle prime norme sui divieti e sull’alfabetizzazione digitale, il 2 agosto arriva una nuova scadenza importante.
Vediamo in modo semplice cosa cambia per le imprese, i fornitori di soluzioni IA e chi lavora ogni giorno con questi strumenti.

Sistemi ad alto rischio: più controlli, più responsabilità

Alcuni sistemi di intelligenza artificiale vengono considerati “ad alto rischio” perché possono avere un impatto forte su diritti, sicurezza o vita delle persone (pensiamo, ad esempio, a IA che gestiscono selezioni del personale, crediti bancari o infrastrutture critiche).

Cosa succede dal 2 agosto:

  • Ogni Paese dovrà indicare un ente nazionale che controlli gli organismi incaricati di verificare questi sistemi. In Italia, il ruolo dovrebbe essere affidato ad AgID.
  • Solo organismi accreditati e indipendenti potranno certificare la conformità dei sistemi ad alto rischio prima della messa in commercio.
  • Le autorità dovranno monitorare regolarmente questi enti e potranno sospenderli in caso di irregolarità.

 

GPAI: regole nuove per i modelli generalisti

Il regolamento dedica molta attenzione anche ai modelli di intelligenza artificiale generalisti, come quelli capaci di generare testo, immagini o codice (es. ChatGPT, Claude, Gemini…).
Dal 2 agosto, chi sviluppa o distribuisce questi modelli dovrà:

  • Fornire documentazione tecnica chiara, spiegando come il modello è stato progettato e addestrato.
  • Pubblicare un riepilogo dei dati di training, in modo trasparente.
  • Rispettare il diritto d’autore, aiutando chi usa il modello a capire se i contenuti generati sono originali o derivati da fonti protette.

Se il modello è particolarmente potente e diffuso (quindi potenzialmente “a rischio sistemico”), dovranno essere rispettate regole aggiuntive, tra cui:

  • Analisi preventiva dei rischi
  • Monitoraggio continuo del comportamento
  • Segnalazione di problemi gravi
  • Test e verifiche indipendenti

 

Una governance condivisa tra Stati e Unione Europea

Il nuovo regolamento prevede una struttura di controllo multilivello:

  • Ogni Stato nominerà le autorità nazionali responsabili (per l’Italia si parla di AgID e ACN).
  • A livello europeo sarà attivo l’Ufficio per l’Intelligenza Artificiale, che coordinerà l’applicazione delle regole tra i Paesi.
  • È stato istituito anche un Comitato europeo per l’IA, con funzioni di consulenza e supporto tecnico.

 

Sanzioni: fino al 7% del fatturato

Chi non rispetta l’AI Act può andare incontro a sanzioni economiche anche molto elevate, commisurate alla gravità della violazione:

  • Fino a 35 milioni di euro o il 7% del fatturato per pratiche vietate (es. sorveglianza di massa o manipolazione).
  • Fino a 15 milioni o il 3% del fatturato per mancate conformità sui sistemi ad alto rischio.
  • Fino a 7,5 milioni o l’1% per comunicazioni false o incomplete alle autorità.

Le piccole e medie imprese (PMI) avranno regimi più leggeri, proprio per non penalizzare l’innovazione.

Riservatezza: un principio fondamentale

Le autorità e gli enti che applicano il regolamento sono tenuti a rispettare la riservatezza di tutte le informazioni sensibili che raccolgono. Questo vale anche per i fornitori, i revisori e chi lavora all’interno dei processi di controllo.

Strumenti di supporto già disponibili

Per aiutare le aziende a prepararsi, la Commissione Europea ha pubblicato:

  • Linee guida pratiche per i fornitori di IA generalista (luglio 2025),
  • Un modello standard per la documentazione dei dati di training,
  • Il primo codice di condotta volontario per i fornitori di IA generalista,
  • Le definizioni ufficiali di “sistema di IA” e “pratiche vietate”.

 

Perché tutto questo ci riguarda

L’AI Act sta già cambiando il modo in cui le imprese progettano, sviluppano e usano soluzioni di intelligenza artificiale.

In NTS Project seguiamo da vicino questi aggiornamenti, perché crediamo in un’IA utile, sicura e centrata sulle persone.
Vogliamo aiutare le aziende a muoversi con consapevolezza, trasformando gli obblighi normativi in opportunità di crescita.

Se vuoi approfondire cosa può cambiare per la tua realtà, scrivici: saremo felici di ascoltarti e capire come possiamo aiutarti.


Ti interessano gli argomenti trattati in questo articolo?

Se desideri saperne di più o hai domande specifiche sulle tue esigenze aziendali, il nostro team di esperti è pronto ad aiutarti.

Non esitare a contattarci per ulteriori informazioni o richieste.

Richiedi informazioni