Home Tecnologia Antitrust avvia istruttoria contro DeepSeek per pratica commerciale scorretta nel settore dell’intelligenza artificiale
Tecnologia

Antitrust avvia istruttoria contro DeepSeek per pratica commerciale scorretta nel settore dell’intelligenza artificiale

Condividi
Condividi

L’Autorità garante della concorrenza e del mercato ha deciso di aprire un’istruttoria nei confronti di due società cinesi, Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence. Queste aziende gestiscono il sistema di intelligenza artificiale DeepSeek e sono accusate di aver adottato una pratica commerciale scorretta. L’indagine prende spunto da alcune segnalazioni che hanno messo in luce presunte carenze informative rivolte agli utenti riguardo ai limiti del sistema IA. In particolare, l’attenzione si concentra sul mancato avviso riguardo al fenomeno delle cosiddette “allucinazioni” nei risultati generati dall’intelligenza artificiale.

Dettagli sull’istruttoria antitrust contro deepseek

L’Autorità garante della concorrenza e del mercato ha pubblicato sul proprio Bollettino settimanale i dettagli dell’iniziativa disciplinare nei confronti delle società Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence. Queste due realtà, attive nel campo dell’intelligenza artificiale, gestiscono collettivamente il sistema DeepSeek, un software basato su modelli di IA. L’istruttoria è scattata per presunte violazioni delle norme a tutela del consumatore, indicate nel Codice del consumo.

L’Antitrust ha raccolto informazioni indicando come DeepSeek non fornisca agli utenti avvisi chiari e immediati che spieghino alcune criticità del sistema. Nello specifico, il procedimento mira a capire se la comunicazione attuata dal sistema sia sufficiente per evitare che gli utenti ricevano dati errati senza poter valutare correttamente il rischio. Gli input forniti dagli utenti sono infatti processati dall’intelligenza artificiale che, in certe situazioni, può generare risposte imprecise, fuorvianti o addirittura inventate, dette “allucinazioni”.

Cosa sono le “allucinazioni” nei modelli di IA

Il fenomeno definito come “allucinazioni” in ambito di intelligenza artificiale riguarda la produzione di contenuti fallaci o inesatti da parte dei modelli conversazionali. Questi sistemi, ricevuto un input dall’utente, elaborano una risposta, ma non sempre questa coincide con dati corretti o verificabili. Le “allucinazioni” si manifestano quindi come informazioni inventate o distorte, spesso difficili da riconoscere subito.

Nel caso di DeepSeek, l’Antitrust ha rilevato l’assenza di alert o disclaimer in grado di prevenire l’utilizzo inconsapevole di queste risposte potenzialmente scorrette. Nelle finestre di dialogo del software non compaiono avvisi specifici che mettano in guardia l’utente sul rischio di ricevere dati parziali, inesatti o fuorvianti. Senza questa indicazione, l’utente potrebbe affidarsi ciecamente alle risposte, col conseguente pericolo di incorrere in errori o decisioni errate basate su informazioni inesatte.

Quadro normativo italiano e tutela del consumatore digitale

Il provvedimento dell’Autorità Garante richiama le disposizioni del Codice del consumo italiano, pensate per garantire trasparenza e correttezza nelle pratiche commerciali rivolte ai cittadini. Nel caso di prodotti digitali e servizi online, come quelli che impiegano modelli di intelligenza artificiale, la chiarezza sull’affidabilità delle informazioni diventa cruciale.

L’Antitrust interviene quando si ritiene che il consumatore possa essere fuorviato da omissioni o comunicazioni poco trasparenti. Nel caso di DeepSeek, la mancanza di informazioni sulle “allucinazioni” rappresenta una possibile lesione di questo principio, visto che l’utente potrebbe non conoscere i limiti del sistema IA. Il procedimento mira a verificare se questa carenza possa configurare una pratica commerciale scorretta secondo la legge.

Impatti per il mercato dell’IA in italia

L’apertura di un’istruttoria dell’Antitrust su DeepSeek segna un passo significativo nella regolamentazione dell’intelligenza artificiale in Italia. Il settore, sempre più diffuso e presente nelle applicazioni di uso quotidiano, richiede regole chiare per tutelare gli utenti e garantirne consapevolezza.

Questo caso sottolinea come emergano nuove criticità relative a sistemi complessi che producono contenuti non sempre affidabili. Le aziende attive su scala globale sono richiamate a fornire indicazioni dettagliate e visibili, per non esporre gli utenti a rischi di utilizzo errato.

Il confronto con le normative italiane mette in luce la necessità di bilanciare innovazione tecnologica e diritti del consumatore. Nel contesto europeo e mondiale, casi come questo spesso stimolano aggiornamenti normativi mirati a una maggiore trasparenza. L’attenzione sul fenomeno delle “allucinazioni” potrà influenzare ulteriori interventi regolatori nel prossimo futuro.

Written by
Elisa Romano

Elisa Romano è una blogger italiana che si occupa di cronaca, politica, spettacolo, attualità, cultura e salute. Con uno stile chiaro e coinvolgente, racconta i fatti e le storie del momento, offrendo riflessioni e approfondimenti per un pubblico sempre più attento e informato.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.