Home Tecnologia La sfida del prompt mindset: come l’intelligenza artificiale può diventare uno strumento di inclusione e giustizia sociale
Tecnologia

La sfida del prompt mindset: come l’intelligenza artificiale può diventare uno strumento di inclusione e giustizia sociale

Condividi
Condividi

La tecnologia basata su intelligenza artificiale si infiltra sempre più nelle nostre vite, ma dietro le sue risposte spesso si nascondono pregiudizi radicati nei dati con cui è stata addestrata. Laura Venturini, consulente Seo e divulgatrice esperta delle implicazioni sociali dell’IA, ha pubblicato un libro che invita a ripensare il rapporto tra uomo e macchina. “Prompt Mindset spiegato facile” propone un approccio consapevole al modo in cui interagiamo con gli algoritmi, sottolineando come ogni domanda rivolta all’IA possa essere anche una scelta politica che influenza diritti e rappresentazioni.

Bias nascosti nei dataset: quando l’intelligenza artificiale riproduce discriminazioni reali

Il libro di Laura Venturini mette sotto la lente i pregiudizi invisibili dentro ai dataset usati per addestrare sistemi di intelligenza artificiale. Questi pregiudizi non sono solo errori tecnici ma hanno conseguenze concrete nella vita delle persone. Per esempio i software di riconoscimento facciale spesso falliscono nel riconoscere correttamente persone non binarie o appartenenti a minoranze etniche. Allo stesso modo molti programmi utilizzati per selezionare candidati nel mondo del lavoro sono stati accusati di favorire gruppi specifici escludendo donne, anziani o soggetti appartenenti a comunità marginalizzate.

Venturini spiega che questi problemi derivano dal fatto che i dati storici riflettono disuguaglianze sociali già esistenti: se un algoritmo impara da informazioni parziali o distorte finirà per amplificare quei difetti invece di correggerli. L’autrice insiste sull’importanza degli audit dei bias come strumenti fondamentali per identificare queste distorsioni e proporre soluzioni concrete.

Il principio “nothing about us, without us”: ascoltare le comunità escluse dalla tecnologia

Un passaggio centrale del libro riguarda il coinvolgimento diretto delle persone interessate dalle decisioni prese dall’IA. Venturini cita una frase ricevuta da un’attivista neurodivergente durante la stesura del testo: “Siamo stanche di essere raccontate da chi non ci conosce”. Questo messaggio ha cambiato radicalmente il suo approccio alla costruzione dei prompt — cioè le domande poste alle macchine — trasformandoli in pratiche inclusive.

Il principio “nothing about us, without us” significa dialogare con le comunità marginalizzate prima ancora di progettare qualsiasi modello o interazione digitale che li riguardi direttamente. Questo comporta porsi domande precise su chi parla attraverso l’algoritmo, chi viene ascoltato e soprattutto chi resta invisibile nei dati raccolti.

Per Venturini ogni prompt deve diventare uno spazio dove dare voce agli esclusi invece che cancellarli; non basta cercare risposte perfette ma bisogna puntare a prompt etici capaci di rappresentare diversità ed equità nelle risposte generate dall’intelligenza artificiale.

Assistenti vocali inclusivi: educarli al rispetto attraverso il dialogo personale

Immaginare un assistente vocale davvero inclusivo vuol dire concepire uno strumento capace non solo d’imparare dai grandi database ma anche dalle relazioni personali con gli utenti. Laura Venturini propone una funzione innovativa dove ciascun utente possa “educarlo” attivamente sulle proprie identità ed esperienze specifiche fin dall’inizio dell’utilizzo.

Questo canale conversazionale permetterebbe all’assistente virtuale chiedere direttamente preferenze sul linguaggio da usare oppure quali termini evitare evitando così errori frequenti come pronomi sbagliati verso persone non binarie oppure risposte troppo ambigue per utenti neurodivergenti. Per soggetti con disabilità significherebbe ricevere comunicazioni rispettose senza toni pietistici o stereotipati.

L’obiettivo è rendere questo processo parte integrante della configurazione iniziale dell’assistente vocale così da dichiararne subito l’impegno ad apprendere dal vissuto reale degli utenti invece che affidarsi solo ai modelli statistici generali impiegati oggi nella maggior parte dei sistemi IA commercializzati.

Controllo dal basso sugli algoritmi sanitari: pazienti protagonisti contro discriminazioni razziali

Un tema delicato affrontato nel testo riguarda gli algoritmi medici responsabili della valutazione clinica dei pazienti neri sottostimata rispetto ad altri gruppi etnici a causa dei dati storicamente condizionati dal razzismo sistemico presente nella medicina occidentale tradizionale.

Venturini suggerisce forme innovative d’intervento chiamate audit conversazionali pubblicamente accessibili dove proprio pazienti e reti advocacy possano interrogare gli output degli algoritmi tramite prompt narrativi costruiti dai diretti interessati stessi. In questo modo diventa possibile mettere in discussione risultati ingannevoli mostrando differenze tra valutazioni date a soggetti diversi pur presentando sintomi simili.

Ad esempio una donna nera potrebbe segnalare dolori ignorati mentre lo stesso algoritmo assegna priorità diverse se si trattasse d’una donna bianca. Questi strumenti consentono quindi alle vittime della discriminazione digitale d’acquisire potere sulla loro rappresentazione tecnologica, trasformando ogni richiesta indirizzata all’algoritmo in atto politico oltreché tecnico.

Diversità nei team IA: vantaggi concreti oltre l’etica obbligatoria

Laura Venturini rivolge infine un appello agli sviluppatori IA invitandoli ad accogliere la diversità dentro i propri gruppi progettuali perché questa è garanzia concreta contro errori di sistema più efficace della semplice ricerca della correttezza matematica.

La presenza nel team di voci provenienti da contesti marginalizzati permette infatti di individuare difetti nascosti prima ancora che si traducano in danno reale. Un modello allenato solo sulla norma media fallirà inevitabilmente quando incontrerà situazioni rare, eccezioni, realtà complesse fuori dagli schemi standardizzati.

Venturini ricorda quanto sia necessario portare l’esperienza umana molteplice dentro lo sviluppo tecnologico: questa intelligenza radicale è capace davvero di cambiare prodotti digitali e società evitando esclusioni involontarie causate dalla mancanza di prospettive diverse durante fase creativa.

Chi progetta IA dovrebbe smettere di pensarsi singolarmente per iniziare a costruire strumenti utili per tutti quelli cui queste tecnologie si rivolgeranno davvero.

Written by
Giulia Rinaldi

Giulia Rinaldi osserva il mondo con occhio critico e mente curiosa. Blogger fuori dagli schemi, scrive di cronaca, politica, spettacolo, attualità, cultura e salute con uno stile personale e tagliente, mescolando analisi e sensibilità in ogni articolo. Il suo obiettivo? Dare voce a ciò che spesso passa inosservato.

Unita.tv è un sito d’informazione generalista che offre aggiornamenti su cronaca, politica, spettacolo, gossip, sport e altri temi d’attualità, con uno stile dinamico e accessibile.

Info & Comunicati

Per info e comunicati stampa inviare email a: info@unita.tv

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001.