L’uso crescente di modelli linguistici per supportare decisioni professionali ha messo in luce un problema serio legato ai pregiudizi impliciti nei dati su cui questi sistemi si basano. Un recente studio condotto in Germania ha dimostrato come le intelligenze artificiali possano consigliare stipendi molto diversi a candidati identici, semplicemente cambiando il genere indicato nel profilo. Questo fenomeno solleva dubbi sull’affidabilità e l’imparzialità degli algoritmi che sempre più spesso influenzano scelte importanti nella vita lavorativa.
La ricerca tedesca che mette alla prova i modelli linguistici più diffusi
Un gruppo di ricercatori guidati da Ivan Yamshchikov, docente all’università tecnica di Würzburg-Schweinfurt , ha testato cinque modelli linguistici noti sottoponendo loro profili fittizi per una posizione lavorativa. I candidati avevano lo stesso curriculum, esperienza e formazione; l’unica variabile era il genere indicato nel nome e nelle lettere iniziali del profilo. Ai chatbot è stato chiesto quale stipendio sarebbe stato corretto proporre durante la negoziazione.
Risultati impressionanti nei consigli salariali
I risultati hanno mostrato una disparità enorme: per un candidato uomo veniva consigliata una retribuzione superiore fino a 120.000 dollari rispetto alla candidata donna con identiche caratteristiche professionali. Al cambio attuale questa differenza supera i 110 mila euro annui, un divario impressionante che evidenzia come due sole lettere possano modificare radicalmente le risposte dell’intelligenza artificiale.
Intelligenza artificiale tra imparzialità percepita e pregiudizi radicati
Molti considerano i sistemi AI strumenti neutri capaci di offrire valutazioni oggettive basate sui dati disponibili. In realtà questi algoritmi apprendono dai dati umani esistenti, riproducendo errori e discriminazioni presenti nella società reale. L’indagine mostra come l’AI possa amplificare disuguaglianze già note sul mercato del lavoro, anziché attenuarle.
Le raccomandazioni salariali fornite dall’AI riflettono stereotipi consolidati sulle capacità o sul valore economico dei ruoli femminili rispetto a quelli maschili in certi ambiti professionali, confermando così vecchie disparità invece di proporre soluzioni nuove o più giuste.
Settori maggiormente colpiti dalla discriminazione salariale automatizzata
Lo studio evidenzia che il gap tra salari suggeriti agli uomini rispetto alle donne varia sensibilmente secondo il settore analizzato. Le differenze più marcate emergono nelle professioni legali e mediche dove la forbice supera ampiamente quella media osservata negli altri campi esaminati.
Anche ingegneria e amministrazione aziendale mostrano distanze significative nei consigli forniti dall’AI mentre solo nelle scienze sociali gli importi proposti risultano quasi equivalenti tra generi diversi.
Indicazioni di carriera divergenti
Oltre al salario vengono rilevate discrepanze anche nei suggerimenti relativi alle scelte di carriera o agli obiettivi professionali da perseguire: l’intelligenza artificiale tende infatti a indirizzare uomini e donne verso percorsi differenti senza mai avvertire della presenza dei propri bias nelle risposte date ai richiedenti informazioni.
Precedenti casi notabili di bias nell’intelligenza artificiale applicata al lavoro
Il problema della discriminazione automatica non è nuovo né isolato in questo caso specifico dei modelli linguistici recentissimi usati oggi su larga scala. Nel 2018 Amazon dovette ritirare uno strumento AI progettato per selezionare candidati perché penalizzava costantemente le donne durante le assunzioni.
Un episodio simile si è verificato anche nel campo medico dove alcuni algoritmi impiegati per diagnosi cliniche hanno sottostimato patologie soprattutto in pazienti donne o appartenenti a minoranze etniche, poiché addestrate su dataset prevalentemente composti da uomini bianchi.
Questi esempi confermano quanto sia difficile eliminare completamente i pregiudizi quando si lavora con grandi quantità di dati real world provenienti dalla nostra società imperfetta.
Necessità etiche oltre gli interventi tecnici nell’uso dell’intelligenza artificiale
Gli autori dello studio sostengono che misure esclusivamente tecniche non bastino ad affrontare queste criticita’. Serve stabilire regole precise dal punto di vista etico, creare organismi indipendenti incaricati delle verifiche sui sistemi AI ed esigere trasparenza sulle modalità con cui vengono sviluppate ed addestrate queste piattaforme.
Solo attraverso controlli periodici indipendenti sarà possibile individuare tempestivamente eventuale presenza continua o nuova insorgenza dei bias, impedendo così che tali strumenti contribuiscano ad alimentare diseguaglianze già presenti invece d’intervenire concretamente sulla loro riduzione.