L’AI Act, la normativa europea che regola l’intelligenza artificiale, si trova al centro di un acceso dibattito. Una lettera firmata dai vertici di 44 grandi aziende europee ha acceso nuovamente i riflettori sulle difficoltà applicative e sui possibili effetti negativi della legge. I firmatari mettono in guardia sul rischio che l’Europa perda terreno nella competizione globale a causa di un quadro normativo complesso e poco chiaro. Intanto, le scadenze previste dalla normativa si avvicinano senza che tutti gli strumenti attuativi siano stati definiti.
scadenze chiave e obblighi previsti dall’AI Act fino al 2030
L’AI Act prevede una serie di tappe precise per l’applicazione graduale delle norme su sistemi AI considerati a rischio elevato o inaccettabile. Dal 2 febbraio 2025 entreranno in vigore divieti specifici per alcune categorie come il social scoring o il riconoscimento biometrico in tempo reale, insieme all’obbligo di alfabetizzazione sull’intelligenza artificiale per fornitori e utilizzatori.
Entro il 2 agosto dello stesso anno scatteranno gli obblighi sulla trasparenza dei modelli generativi , con requisiti dettagliati su dati d’addestramento, copyright e documentazione tecnica. Saranno operative anche le norme sulla governance nazionale e sulle sanzioni previste dal regolamento.
La fine del 2025 dovrebbe vedere la pubblicazione del Code of Practice dedicato ai modelli GPAI: uno strumento volontario ma raccomandato agli operatori del settore. Il calendario prosegue con l’applicazione completa degli obblighi tecnici ai sistemi ad alto rischio dal 2 agosto 2026, compresi registrazioni ufficiali e controlli continui tramite sandbox normativi nazionali.
Il processo culminerà nel pieno rispetto delle regole da parte dei sistemi AI già presenti sul mercato entro agosto 2027; mentre entro fine decennio sarà necessaria la conformità anche per intelligenze artificiali integrate in infrastrutture IT esistenti su larga scala.
La lettera delle multinazionali: perché chiedono una sospensione dell’attuazione
La missiva indirizzata alla presidente della Commissione europea Ursula von der Leyen porta firme illustri come quelle dei CEO di Airbus, BNP Paribas, Carrefour e Philips. La richiesta è netta: sospendere almeno due anni l’applicazione dell’AI Act soprattutto nelle parti riguardanti i foundation model tipo GPT-4 o Gemini.
Secondo i firmatari le norme attuali risultano troppo ambigue nelle interpretazioni pratiche; sovrapposte tra loro; accompagnate da procedure rigide che rischiano di soffocare lo sviluppo tecnologico europeo invece che sostenerlo davvero nella competizione globale con Stati Uniti o Cina.
Si evidenzia inoltre come questa situazione stia già bloccando investimenti importanti nel settore AI europeo limitando sperimentazioni essenziali alla crescita industriale locale. Le imprese denunciano difficoltà crescenti nell’adattarsi rapidamente alle richieste normative mentre i competitor esteri avanzano senza vincoli analoghi.
Mancanza del codice etico e ritardi nella definizione degli strumenti operativi
Il problema non riguarda solo i contenuti della legge ma anche la mancanza concreta degli strumenti necessari a farla funzionare davvero sul campo. L’approvazione formale risale all’estate del 2024 ma molte misure sensibili saranno operative solo dall’agosto successivo.
Nel frattempo doveva essere pubblicato entro maggio un codice etico rivolto agli sviluppatori dei modelli general purpose ma ciò non è ancora accaduto. Fonti interne riferiscono trattative riservate tra Commissione europea e colossi tech americani quali Google, Meta o Microsoft finalizzate ad alleggerire alcuni obblighi previsti dalla norma.
Henna Virkkunen, commissaria responsabile ha assicurato che il codice sarà disponibile prima della scadenza prevista ad agosto però cresce la pressione politica-industriale intorno a questo tema complicando ulteriormente ogni decisione definitiva da parte dell’esecutivo UE.
Questa situazione crea confusione tra Stati membri dove applicazioni divergenti potrebbero portare a conflitti giurisdizionali rallentando ulteriormente processi decisionali fondamentali per uniformare le regole nel mercato unico digitale europeo.
Responsabilità estese alle imprese utilizzatrici: criticità normative ed effetti sulle PMI
Uno dei nodi più discussi riguarda proprio chi deve rispondere legalmente quando si adottano modelli generativi nei propri sistemi informatici interni: secondo alcuni passaggi dell’AI Act queste aziende potrebbero dover affrontare problemi legati al copyright violato dall’output prodotto oppure garantire trasparenza sugli algoritmi usati senza disporre direttamente delle tecnologie sottostanti sviluppate altrove.
Questo solleva timori soprattutto tra startup piccole-medie imprese europee incapaci spesso di sostenere costose battaglie legali o adeguamenti normativi continui. Senza un sistema armonizzato europeo infatti ognuno Stato potrebbe introdurre proprie regole creando così un mosaico difficile da gestire.
Al contrario, grandi piattaforme internazionali dotate di team legali specializzati avrebbero maggior facilità nel navigare questa complessità, consolidando così posizioni dominanti già ben radicate nei mercati globalizzati.
confronto internazionale sui diversi approcci regolatori all’intelligenza artificiale
L’Italia come altri Paesi UE osserva uno scenario mondiale segnato da strategie molto diverse nell’affrontare l’impatto sociale ed economico dell’intelligenza artificiale. L’Europa propone un modello unico basato sulla gestione del rischio lungo tutto il ciclo vitale della tecnologia, cercando trasparenza totale negli algoritmi impiegati.
Gli Stati Uniti mantengono invece una linea più flessibile lasciando ampi margini allo sviluppo rapido senza vincoli stringenti. La Cina punta su controllo centralizzato forte abbinato a investimenti massicci nello sviluppo tecnologico interno.
Questa differenza mette Bruxelles sotto pressione perché vuole stabilire standard globalmente riconosciuti pur non disponendo ancora pienamente degli strumenti tecnologici autonomamente sviluppati necessari. Il risultato è una posizione delicata fra voler dettare regole rigorose ed evitare però restrizioni tali da danneggiare competitività interna.
Moratoria richiesta dalle aziende: opportunità tecnica o segnale politico?
Chiedere tempo può apparire ragionevole visto quanto resta ancora aperto sul piano operativo: serve chiarezza, coordinamento fra governi nazionali, supporto concreto alle imprese. Nessuna norma efficace nasce dalla fretta.
D’altro canto c’è chi teme possa diventare occasione per indebolire progressivamente le ambizioni regolatorie europee lasciandosi condizionare dalle lobby più potenti. Questo scenario rischierebbe infatti minarne credibilità internazionale oltreché capacità d’intervento tempestivo contro rischiosi abusi tecnologici.
La Commissione continua dichiararsi impegnata nell’attuazione integrale ma ammette “tutte le opzioni restano aperte” confermando così dubbi diffusi sulla direzione futura.
Quattro scenari possibili per evoluzione normativa dopo la crisi attuale
Lo stato attuale lascia spazio a diverse ipotesi:
-
Scenario zero prevede immobilismo tecnico-politico: nessun rinvio formale né modifiche sostanziali; codici incompleti; autorità nazionali prive d’indirizzi efficaci; applicazioni parzialmente inefficaci con conseguente perdita progressiva fiducia verso capacità europea;
-
Scenario uno contempla compromessi mirati: rinvio selettivo su aspetti controversi fondamentali ; codice semplificato pubblicato entro estate; tempi aggiuntivi concessi alle PMI permettendo adattamenti graduali;
-
Scenario due vede rottura politica profonda: rinegoziazione radicale oppure congelamento sino al ’27; assenza coordinamento produce lineeguida divergenti fra Paesi UE aprendo strada ad Europa frammentata;
-
Scenario tre immagina rilancio deciso: pubblicazione tempestiva codici completi accompagnata da supporto operativo concreto sandbox paneuropea funzionale favorisce test controllati foundation model aumentando autorevolezza UE;
Quest’ultima ipotesi appare meno probabile oggi ma rappresenterebbe quella capace realmente d’incidere sul futuro ruolo regolatorio globale dell’Unione europea riguardo all’intelligenza artificiale.