Home Tecnologia Disparità di genere nei suggerimenti salariali dell’intelligenza artificiale: uno studio rivela differenze fino a 120.000 dollari
Tecnologia

Disparità di genere nei suggerimenti salariali dell’intelligenza artificiale: uno studio rivela differenze fino a 120.000 dollari

Condividi
Condividi

L’uso crescente di modelli linguistici per supportare decisioni professionali ha messo in luce un problema serio legato ai pregiudizi impliciti nei dati su cui questi sistemi si basano. Un recente studio condotto in Germania ha dimostrato come le intelligenze artificiali possano consigliare stipendi molto diversi a candidati identici, semplicemente cambiando il genere indicato nel profilo. Questo fenomeno solleva dubbi sull’affidabilità e l’imparzialità degli algoritmi che sempre più spesso influenzano scelte importanti nella vita lavorativa.

La ricerca tedesca che mette alla prova i modelli linguistici più diffusi

Un gruppo di ricercatori guidati da Ivan Yamshchikov, docente all’università tecnica di Würzburg-Schweinfurt , ha testato cinque modelli linguistici noti sottoponendo loro profili fittizi per una posizione lavorativa. I candidati avevano lo stesso curriculum, esperienza e formazione; l’unica variabile era il genere indicato nel nome e nelle lettere iniziali del profilo. Ai chatbot è stato chiesto quale stipendio sarebbe stato corretto proporre durante la negoziazione.

Risultati impressionanti nei consigli salariali

I risultati hanno mostrato una disparità enorme: per un candidato uomo veniva consigliata una retribuzione superiore fino a 120.000 dollari rispetto alla candidata donna con identiche caratteristiche professionali. Al cambio attuale questa differenza supera i 110 mila euro annui, un divario impressionante che evidenzia come due sole lettere possano modificare radicalmente le risposte dell’intelligenza artificiale.

Intelligenza artificiale tra imparzialità percepita e pregiudizi radicati

Molti considerano i sistemi AI strumenti neutri capaci di offrire valutazioni oggettive basate sui dati disponibili. In realtà questi algoritmi apprendono dai dati umani esistenti, riproducendo errori e discriminazioni presenti nella società reale. L’indagine mostra come l’AI possa amplificare disuguaglianze già note sul mercato del lavoro, anziché attenuarle.

Le raccomandazioni salariali fornite dall’AI riflettono stereotipi consolidati sulle capacità o sul valore economico dei ruoli femminili rispetto a quelli maschili in certi ambiti professionali, confermando così vecchie disparità invece di proporre soluzioni nuove o più giuste.

Settori maggiormente colpiti dalla discriminazione salariale automatizzata

Lo studio evidenzia che il gap tra salari suggeriti agli uomini rispetto alle donne varia sensibilmente secondo il settore analizzato. Le differenze più marcate emergono nelle professioni legali e mediche dove la forbice supera ampiamente quella media osservata negli altri campi esaminati.

Anche ingegneria e amministrazione aziendale mostrano distanze significative nei consigli forniti dall’AI mentre solo nelle scienze sociali gli importi proposti risultano quasi equivalenti tra generi diversi.

Indicazioni di carriera divergenti

Oltre al salario vengono rilevate discrepanze anche nei suggerimenti relativi alle scelte di carriera o agli obiettivi professionali da perseguire: l’intelligenza artificiale tende infatti a indirizzare uomini e donne verso percorsi differenti senza mai avvertire della presenza dei propri bias nelle risposte date ai richiedenti informazioni.

LEGGI ANCHE
come l’intelligenza artificiale sta cambiando il lavoro in italia e nel mondo entro il 2025

Precedenti casi notabili di bias nell’intelligenza artificiale applicata al lavoro

Il problema della discriminazione automatica non è nuovo né isolato in questo caso specifico dei modelli linguistici recentissimi usati oggi su larga scala. Nel 2018 Amazon dovette ritirare uno strumento AI progettato per selezionare candidati perché penalizzava costantemente le donne durante le assunzioni.

Un episodio simile si è verificato anche nel campo medico dove alcuni algoritmi impiegati per diagnosi cliniche hanno sottostimato patologie soprattutto in pazienti donne o appartenenti a minoranze etniche, poiché addestrate su dataset prevalentemente composti da uomini bianchi.

Questi esempi confermano quanto sia difficile eliminare completamente i pregiudizi quando si lavora con grandi quantità di dati real world provenienti dalla nostra società imperfetta.

Necessità etiche oltre gli interventi tecnici nell’uso dell’intelligenza artificiale

Gli autori dello studio sostengono che misure esclusivamente tecniche non bastino ad affrontare queste criticita’. Serve stabilire regole precise dal punto di vista etico, creare organismi indipendenti incaricati delle verifiche sui sistemi AI ed esigere trasparenza sulle modalità con cui vengono sviluppate ed addestrate queste piattaforme.

Solo attraverso controlli periodici indipendenti sarà possibile individuare tempestivamente eventuale presenza continua o nuova insorgenza dei bias, impedendo così che tali strumenti contribuiscano ad alimentare diseguaglianze già presenti invece d’intervenire concretamente sulla loro riduzione.

Written by
Luca Moretti

Luca Moretti è un blogger e analista indipendente con un forte focus su politica e cronaca. Con uno stile incisivo e documentato, approfondisce temi di attualità nazionale e internazionale, offrendo ai lettori chiavi di lettura chiare e puntuali. Il suo lavoro è guidato da una costante ricerca della verità e da un impegno verso l’informazione libera e consapevole.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.