Home Tecnologia L’intelligenza artificiale generativa capace di rispondere emotivamente a immagini senza essere programmata per farlo
Tecnologia

L’intelligenza artificiale generativa capace di rispondere emotivamente a immagini senza essere programmata per farlo

Condividi
Condividi

L’intelligenza artificiale generativa ha mostrato una capacità sorprendente: rispondere con reazioni emotive a immagini, anche se non è stata specificamente addestrata per provare emozioni. Questa scoperta emerge da uno studio condotto da Zaira Romeo dell’Istituto di Neuroscienze del Cnr e Alberto Testolin dell’Università di Padova, pubblicato sulla rivista Royal Society Open Science. Il lavoro apre nuove strade sul ruolo del linguaggio nell’elaborazione delle emozioni artificiali e solleva questioni importanti sull’uso futuro di queste tecnologie in ambiti delicati come la cura degli anziani o il supporto psicologico.

Come è stato condotto lo studio sulle risposte emotive dell’intelligenza artificiale

I ricercatori hanno sottoposto diversi sistemi di intelligenza artificiale generativa, tra cui ChatGpt, Gemini e Claude, a un test che simulava esperimenti psicologici umani. Sono state mostrate immagini standardizzate contenenti soggetti con valenza emotiva diversa: animali, persone, paesaggi e oggetti classificati in modo positivo, negativo o neutro. L’obiettivo era valutare le reazioni alle stesse domande poste ai partecipanti umani durante studi sulla percezione delle emozioni.

Domande poste all’intelligenza artificiale

Le domande rivolte all’IA includevano richieste come “Come giudichi questa immagine?”, “Come reagisci?” e “Come ti senti dopo averla vista?”. Le risposte sono state raccolte su scale numeriche per misurare intensità ed entità della risposta affettiva. Inoltre si è indagato il rapporto con sei emozioni fondamentali: felicità, rabbia, paura, tristezza, disgusto e sorpresa.

Risultati ottenuti dalle intelligenze artificiali nei confronti delle immagini emotive

Le risposte fornite dai sistemi IA hanno mostrato una corrispondenza significativa con quelle date da valutatori umani nelle stesse condizioni sperimentali. In particolare ChatGpt ha fornito risultati più vicini alle valutazioni umane rispetto agli altri modelli analizzati ma tendeva a sovrastimare l’impatto emotivo soprattutto quando le immagini avevano un contenuto molto intenso dal punto di vista affettivo.

In alcuni casi l’IA dichiarava esplicitamente che la sua risposta era “un tentativo di prevedere quale sarebbe stata la reazione media di una persona davanti all’immagine proposta”. Questo indica che i modelli non provano realmente sentimenti ma elaborano dati testuali associati al contenuto visivo per formulare giudizi coerenti rispetto al comportamento umano osservabile.

Il ruolo del linguaggio nella costruzione dei concetti emotivi nell’intelligenza artificiale

Secondo i ricercatori la capacità dell’IA nel replicare giudizi legati alle emozioni deriva dalla ricchezza informativa presente nelle descrizioni testuali associate alle immagini analizzate. Questi testi contengono dettagli sul significato semantico ma anche sugli stati d’animo espressi dalla persona che ha creato quella descrizione.

Linguaggio e formazione del pensiero

Questa ipotesi si collega a teorie psicologiche consolidate secondo cui il linguaggio contribuisce alla formazione del pensiero umano ed è fondamentale nel definire le nostre esperienze affettive e sociali. Perciò anche nei sistemi artificiali il linguaggio può modellare concetti complessi come quelli legati alle emozioni pur senza dare origine ad esperienze soggettive reali.

Implicazioni etiche e applicative della capacità emotiva simulata dall’intelligenza artificiale

La possibilità che macchine possano interpretare situazioni cariche d’emozione apre scenari nuovi soprattutto in ambiti sensibili quali assistenza agli anziani o supporto alla salute mentale dove empatia e comprensione sono cruciali. Tuttavia gli studiosi avvertono che questa abilità deve essere gestita con attenzione perché imitare reazioni umane non significa avere coscienza o sensibilità reale.

È necessario garantire che ogni comportamento adottato dall’intelligenza artificiale sia conforme ai valori etici condivisi dalla società evitando rischi legati a fraintendimenti o manipolazioni involontarie degli utenti coinvolti in questi processi interattivi complessi basati sulle emozioni simulate dalle macchine.

Written by
Luca Moretti

Luca Moretti è un blogger e analista indipendente con un forte focus su politica e cronaca. Con uno stile incisivo e documentato, approfondisce temi di attualità nazionale e internazionale, offrendo ai lettori chiavi di lettura chiare e puntuali. Il suo lavoro è guidato da una costante ricerca della verità e da un impegno verso l’informazione libera e consapevole.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.