20/11/2025 - AI Act rinviato a fine 2027 per i sistemi ad alto rischio.

Bruxelles suggerisce un posticipo fino a 16 mesi per l’applicazione delle regole AI. Un passo indietro rispetto alle regole adottate appena un anno fa?
 
L'Unione Europea rallenta sulla regolamentazione dell’intelligenza artificiale. La Commissione europea ha annunciato un rinvio di 16 mesi (al massimo) per l’applicazione delle norme dell’AI Act relative ai sistemi ad alto rischio, spostando la data limite da agosto 2026 a dicembre 2027. La decisione, inserita nel pacchetto "Digital Omnibus", segna un cambio di direzione nelle politiche digitali del continente e solleva interrogativi sul ruolo che l’Ue vuole avere nei confronti dell’intelligenza artificiale. La stessa Commissione, prima dell’annuncio ufficiale, aveva espresso timori che un rinvio potesse compromettere la credibilità della legge e l’efficacia del modello europeo in materia di sicurezza, trasparenza e tutela dei diritti, oltre che favorire un vantaggio competitivo a chi opera fuori dai confini dell’Unione o con regole meno stringenti.
 
Bruxelles ha ufficializzato lo slittamento attraverso una proposta che subordina l’entrata in vigore delle norme sulla disponibilità di strumenti di supporto, inclusi gli standard tecnici necessari a definire cosa rispetta le disposizioni del regolamento e cosa no. Il rinvio riguarda i sistemi di intelligenza artificiale classificati come “ad alto rischio”, ovvero quelle tecnologie impiegate in ambiti sensibili come la sanità, l’analisi dei curriculum, la valutazione degli esami scolastici, l’approvazione delle richieste di prestito, le infrastrutture critiche e le forze dell’ordine. 
Il pacchetto "Digital Omnibus" prevede anche estensioni di alcune semplificazioni concesse alle Pmi, con requisiti semplificati per la documentazione tecnica e un risparmio stimato di almeno 225 milioni di euro all’anno. Viene inoltre rafforzato il ruolo dell’Ufficio Ai, accentrando la supervisione dei sistemi basati su modelli di intelligenza artificiale per finalità generali come Gpt-4 di OpenAI e Gemini di Google.
 
Il rinvio nasce dall’incrocio tra esigenze tecniche e pressioni politico-economiche di portata globale. Sul fronte tecnico, il ritardo nella definizione degli standard armonizzati ha creato un vuoto normativo che rende impossibile per le aziende dimostrare la conformità ai requisiti richiesti.
La dimensione geopolitica pesa altrettanto. Le pressioni del governo statunitense e delle Big Tech hanno raggiunto livelli inediti, con un investimento in attività di lobbying a Bruxelles che ha toccato i 151 milioni di dollari nel 2025. Ad agosto il segretario di Stato americano Marco Rubio ha invitato i diplomatici a indebolire il Digital Services Act dell’Ue e, nel corso degli ultimi mesi, colossi come Meta hanno fatto pressione per ottenere modifiche sostanziali al regolamento, considerate necessarie per non compromettere la competitività del settore tecnologico.​
 
La decisione ha scatenato reazioni contrastanti tra esperti e organizzazioni della società civile. Diversi osservatori interpretano il posticipo come una resa alle pressioni delle multinazionali tecnologiche e al governo di Donald Trump, mettendo in discussione la capacità dell’Europa di difendere il proprio modello regolatorio. La vicepresidente esecutiva della Commissione per la sovranità tecnologica, Henna Virkkunen, ha dichiarando che “questo non significa fare un passo indietro dalle regole, ma assicurarsi che strumenti di supporto come standard, specifiche e linee guida siano pronti prima che le regole ad alto rischio si applichino”.​ Eppure, il dibattito sta sollevando interrogativi sul futuro della governance tecnologica europea in un momento in cui la competizione globale sull’IA si intensifica.
La proposta ora dovrà essere approvata dalla maggioranza dei paesi dell’Unione e dal Parlamento europeo prima di diventare effettiva.​