L’uso crescente di sistemi automatizzati per la selezione del personale sta sollevando preoccupazioni riguardo a discriminazioni nascoste. Alcune piattaforme basate su intelligenza artificiale, adottate da grandi aziende, risultano inaccessibili o penalizzanti per chi presenta disabilità o caratteristiche comunicative fuori dalla norma. Il caso recente della società americana HireVue ha portato all’attenzione pubblica le difficoltà incontrate da candidati non udenti e con accenti particolari durante colloqui gestiti esclusivamente da software automatizzati.
La denuncia dell’aclu contro hirevue e intuit: un sistema che esclude i non udenti
A marzo 2025 l’American Civil Liberties Union del Colorado ha depositato un reclamo formale presso due agenzie federali americane responsabili della tutela dei diritti civili nel lavoro: la Civil Rights Division del Dipartimento di Giustizia e la Equal Employment Opportunity Commission . Nel documento si segnala come HireVue, azienda leader nelle soluzioni di intelligenza artificiale per selezioni lavorative, abbia sviluppato un sistema che discrimina candidati con problemi uditivi.
Il cuore della questione riguarda il fatto che il software di video-colloquio usato da molte imprese richiede risposte vocali senza fornire sottotitoli adeguati. Chi soffre di sordità o parla con accenti non riconosciuti dal sistema rischia quindi una valutazione ingiusta. L’esempio più emblematico è quello di D.K., donna indigena non udente, cui è stata negata una promozione in Intuit dopo aver superato anni positivi nell’azienda.
Il caso specifico di d.k.: esclusione durante colloqui automatizzati senza supporti accessibili
D.K., candidata al ruolo di responsabile stagionale presso Intuit, aveva già lavorato nell’azienda ricevendo feedback positivi e bonus legati alle sue prestazioni. Tuttavia nella fase finale del processo selettivo le è stato richiesto un colloquio tramite la piattaforma HireVue che si basa solo sull’interazione vocale registrata senza sottotitoli umani o altre forme efficaci d’accessibilità.
Nonostante D.K. avesse segnalato queste criticità al team dedicato all’accessibilità in Intuit chiedendo supporto concreto come sottotitoli generati manualmente, l’azienda ha continuato a utilizzare lo strumento così com’è imposto dall’accordo con HireVue. Il risultato è stato una valutazione negativa attribuita alla scarsa chiarezza comunicativa imputata a D.K., ignorando le sue effettive capacità professionali.
Limiti degli algoritmi nella gestione delle diversità linguistiche e funzionali nei processi assuntivi
I sistemi automatizzati come quelli proposti da HireVue analizzano principalmente aspetti standardizzati della comunicazione orale: tono, velocità ed espressione facciale registrata tramite video interviste automatiche. Questi parametri però trascurano completamente chi presenta modi diversi d’esprimersi a causa di disabilità sensoriali o culturali specifiche.
L’incapacità degli algoritmi nel riconoscere accenti poco comuni o variazioni linguistiche dovute ad origini etniche rende molte candidature invisibili ai filtri digitali usati dalle aziende più grandi sul mercato globale. Questo porta a forme indirette ma concrete di esclusione dai posti disponibili proprio per chi dovrebbe avere diritto alle stesse opportunità lavorative degli altri.
Impatto sociale ed economico delle discriminazioni generate dai sistemi artificiali nelle assunzioni
La ricerca del lavoro rappresenta uno snodo cruciale nella vita personale ed economica dei cittadini; subire rifiuti basati su strumenti tecnologici incapaci d’adattarsi alla diversità umana può compromettere seriamente l’inclusione sociale ed equa distribuzione delle chance professionali.
Le storie come quella denunciata dall’ACLU mettono in luce quanto sia urgente porre limiti precisi all’impiego indiscriminato degli algoritmi nelle procedure HR evitando danni irreversibili soprattutto ai gruppi più vulnerabili quali persone con disabilità sensoriale oppure appartenenti a minoranze etniche spesso caratterizzate da modalità comunicative differenti rispetto allo standard dominante imposto dalla tecnologia digitale attuale.
Diffusione globale dell’intelligenza artificiale nei processi selettivi: numeri preoccupanti secondo studi recentissimi
Un’indagine condotta dall’università Harvard insieme ad Accenture mostra come ormai quasi tutte le grandi imprese nel mondo utilizzino tecnologie “diversamente intelligenti” almeno in alcune fasi della selezione dei candidati; questa prassi sembra diventare norma consolidata senza ancora confrontarsi sufficientemente sulle conseguenze sociali negative emerse soprattutto negli ultimi mesi grazie anche alle denunce pubbliche simili a quella presentata dall’ACLU americana sul caso HireVue-Intuit.
Il rischio concreto è quello d’un meccanismo automatico capace solo apparentemente d’eliminare parzialmente pregiudizi personali ma invece crea nuove barriere invisibili, difficili da identificare se non attraverso casi estremamente documentabili. Serve quindi maggiore attenzione politica, giuridica e aziendale affinché strumenti così delicati vengano regolamentati correttamente prima che diventino ostacolo permanente alla parità reale tra tutti i cittadini interessanti posizioni lavorative.
In effetti questo episodio fa emergere questionari fondamentali circa il modo in cui società moderne affrontano temi complessi quali inclusività digitale, rispetto delle differenze individualistiche nel mondo professionale sempre più influenzato dalle tecnologie avanzate.