L’Unione europea sta per introdurre un regolamento senza precedenti sull’intelligenza artificiale, ma le grandi aziende tecnologiche spingono per posticiparne l’entrata in vigore. L’AI Act punta a mettere limiti e trasparenza nell’utilizzo degli algoritmi, ma al momento manca ancora chiarezza sulle modalità di applicazione. Il confronto tra lobby industriali e istituzioni europee mette in luce una tensione tra controllo democratico e sviluppo economico.
La CCIA Europe, associazione che rappresenta colossi come Google, Meta, Amazon e Apple ha ufficialmente chiesto all’Unione europea di rimandare l’attuazione dell’AI Act. Questa normativa dovrebbe entrare in vigore dal 2 agosto 2025 per i modelli di intelligenza artificiale general-purpose: sistemi flessibili utilizzabili in molti ambiti diversi come ChatGPT o Gemini.
Il motivo principale della richiesta riguarda la mancanza attuale di strumenti operativi concreti che permettano alle aziende di adeguarsi con certezza alle nuove regole. Al momento il testo stabilisce solo principi generali: valutare rischi e comunicare gli scopi d’impiego dei sistemi IA. Mancano però linee guida chiare, registri ufficiali o codici etici dettagliati su cui basarsi.
Questa assenza crea confusione nei soggetti coinvolti perché non si sa bene quali azioni intraprendere per evitare sanzioni. Per questo motivo la CCIA sostiene che molte imprese potrebbero subire penalizzazioni ingiuste senza aver avuto modo reale di conformarsi al regolamento. Inoltre temono che questa situazione rallenti investimenti e innovazioni nel campo dell’intelligenza artificiale.
Anche Stefan Hartung, amministratore delegato del gruppo Bosch ha espresso critiche verso il percorso normativo europeo sull’intelligenza artificiale definendolo “ipernormato”. Secondo lui troppe regole renderebbero difficile pianificare strategie a medio-lungo termine perché creano un contesto incerto dove ogni passo rischia sanzioni o blocchi burocratici.
Da parte sua Bruxelles viene accusata da alcune imprese di soffocare lo sviluppo tecnologico con una regolamentazione troppo rigida e poco pragmatica; tuttavia senza controlli efficaci si corre il rischio opposto: lasciare spazio a decisioni automatiche prese dietro le quinte senza trasparenza né responsabilità pubblica.
L’obiettivo dichiarato dall’Ue è invece quello di garantire un uso umano-centrico dell’intelligenza artificiale attraverso norme affidabili capaci anche ridurre arbitri discrezionali nelle scelte algoritmiche più delicate come quelle legate alla privacy o ai diritti fondamentali.
Nonostante la volontà politica espressa dall’Ue tramite l’AI Act, sul piano pratico mancano ancora elementi essenziali perché diventi uno strumento efficace ed operativo. Gli standard tecnici necessari non sono stati definiti completamente; i codici comportamentali previsti accumulano ritardi; infine non esiste una definizione chiara dei cosiddetti “rischi elevati” legati all’impiego delle tecnologie IA.
Questi aspetti fanno apparire il quadro normativo generico ed ambiguo tanto da essere percepito dagli operatori come una sorta giungla nella quale orientarsi risulta complesso soprattutto per realtà più piccole rispetto ai grandi gruppi multinazionali dotati già oggi ampi uffici legali specializzati nel settore digitale.
Nel contesto globale, questa situazione pone l’Ue su un terreno instabile dove deve bilanciare due esigenze contrastanti: tutelare i diritti dei cittadini evitando abusi derivanti da sistemi opachi; mantenere attrattiva economica affinché investitori continuino a puntare sul continente europeo.
Gli Stati Uniti adottano approcci frammentari suddividendo discipline federali diverse secondo settori specifici. Questo sistema permette flessibilità ma genera anche disomogeneità nelle tutele offerte agli utenti finali. La Cina invece mantiene stretto controllo statale sull’intera filiera tecnologica favorendo crescita rapida ma limitando fortemente libertà individuali.
L’Ue vuole distinguersi proponendo terze vie fondate su principi etici, trasparenza pubblica, responsabilità sociale. Tuttavia cercando compromessi tra vari interessi potrebbe finire col creare norme troppo complesse difficili da seguire se non dai pochi soggetti con risorse elevate.
Il precedente del GDPR insegna però qualcosa: quando entrò in vigore nel 2018 molti criticarono quella legge ritenendola dannosa per competitività europea; oggi quel testo è riferimento internazionale spesso preso ad esempio persino fuori dal continente. Potrebbe succedere qualcosa del genere anche con AI Act?
Il futuro mostrerà se questo tentativo normativo riuscirà davvero a imporre standard solidi oppure resterà uno schema teorico che faticherà ad incidere concretamente sulle dinamiche digitali contemporanee.
Il Napoli si prepara a una serie di test importanti durante il ritiro estivo a…
Nel contesto di un reality show, un momento cruciale si è svolto tra Sonia M.…
La presenza della mafia cinese a Roma si è consolidata nel corso di quasi quarant’anni,…
La conclusione di money road 2025 ha regalato tensione, sorprese e scelte difficili per i…
antonio non si presenta al falò di confronto anticipato a temptation island 2025: la reazione…
Un incendio ha devastato una palazzina a Cherasco, nel cuneese, senza causare vittime umane. Le…