L’Intelligenza Artificiale è Femmina? Dubbi e Analisi

L’AI (Artificial Intelligence) sta impattando sempre di più sulle nostre vite a partire dai Social Network fino ad arrivare ai contesti lavorativi più o meno strutturati. In un’ottica di Genere quanto è Inclusiva l’AI?

In breve la risposta è poco, ma approfondiamo meglio.

Cosa Aspettarsi da questo articolo:

Il Machine Learning

Il Sistema di Apprendimento delle Macchine è una sotto categoria delle Intelligenze Artificiali e viene utilizzato dai Computer per creare degli Algoritmi sulla base di Dati e Modelli. Questo Metodo viene utilizzato in particolare dalle Aziende per risolvere alcuni problemi già noti o che potrebbero riscontrarsi.

In funzione, quindi, delle risposte che si vogliono ottenere si può scegliere tra alcuni tipi di Machine Learning: Classification – per assegnare ogni campione ad un categoria, Clustering – per dividere le persone che hanno dei punti in comune in gruppi, NLP (Natural Language Processing) – per interpretare quello che dice l’utente finale attraverso Chatbot o Assistenti Virtuali , Forecasting – per analizzare come un Target si potrebbe comportare a seguito di variabili esterne.

Voi a questo punto potrete dire tranquillamente “e a me che me frega”, ma in realtà questi sono dati che vengono processati costantemente ogni giorno grazie alla ricetta della Torta Pasqualina che leggiamo sul nostro sito di food preferito, il maglione di Zalando comprato nel Black Friday, la Serie Tv su Netflix alla quale non possiamo proprio rinunciare (l’avete già visto “Mercoledì”?) o quando chiedete ad Alexa come annaffiare il vostro Ficus Benjamin.

Appurato che non possiamo sottrarci al Machine Learning cerchiamo di comprendere come questo metodo possa essere definito sessista nel corso di questo articolo.

Il Deep Learning

La tecnica di apprendimento automatico viene considerata una sotto categoria del Machine Learning e su larga scala dell’Intelligenza Artificiale. Il Deep Learning si occupa di quegli algoritmi che riguardano le Reti Neurali Artificiali e si ispira al Cervello Umano. Attraverso la raccolta di Rappresentazione di Dati – immagini o testi vocali – il Deep Learning restituisce dei dati specifici.

Ieri ho acquistato un nuovo cellulare e ho scritto un messaggio sotto dettatura. ” Sono andata a fare la spesa e riesco a sentire solo ora il tuo audio, come stai? Sei riuscita a trovare il regalo di Natale per tua sorella?” La traduzione del messaggio scritto è stata: “Sono ANDATO a fare la spesa…. Sei RIUSCITO a…?” Voi penserete che il mio tono di voce fosse troppo basso o che mi fossi mangiata qualche parola (soprattutto quelle che identificano il mio genere e quello della destinataria del messaggio) quindi che la funzione di dettatura non abbia compreso bene. In realtà non è successo questo.

Il riconoscimento audio ha tradotto bene il testo del messaggio, utilizzando però il genere maschile, questo è un chiaro segno di Gender Bias.

Il Gender Bias

La Distorsione di Genere è comune nell’Intelligenza Artificiale e si riscontra specialmente nel Deep Learning.

Quindi il fatto che l’applicazione di Riconoscimento Vocale abbia tradotto il mio messaggio al maschile, non è un fatto casuale, ma un vero e proprio bug dell’AI. La stessa cosa accade anche per altri tipi di dati come ad esempio quelli di immagini e video. Ho recentemente scaricato l’app editor di foto Wonder presa dalla stessa moda ed euforia dei miei contatti Social dove tutti apparivano Sexy Guerrieri di Assassin’s Creed o Mitologici Gladiatori. La tecnologia consiste nello scattarsi delle foto da sei diverse prospettive e poi l’app grazie all’uso di keywords – comandi preimpostati ed editabili fa il resto. Il viso viene scansionato dall’intelligenza artificiale e tradotto in pixel. Armata di entusiasmo ed euforia ho scattato delle foto nello stato in cui ero: struccata e pure un po’ stanca. Dopo le varie Pocahontas ed eroine di Tomb Rider viste sui social delle mie amiche ero pronta ad assaporare la mia versione Ely Lara Croft 4.0. Quello che mi si è presentato è stato quasi agghiacciante o comunque molto lontano dal gioco della PlayStation di 20 anni fa. I tratti somatici erano vagamente miei (occhi, bocca, naso), peccato che la forma del viso e dell’arcata sopraccigliare mi conferissero un’espressione molto dura, completamente diversa da me. Ho impiegato dieci minuti buoni a capire quale fosse il problema, nonostante questo articolo fosse già nelle “bozze” e l’idea quasi ultimata. L’algoritmo non riconoscendo lunghe ciglia da cerbiatta, una bocca piena e sinuosa e delle sopracciglia ben disegnate, mi ha catalogata come un volto maschile. Solo inserendo “female” nelle istruzioni all’algoritmo sono riuscita ad ottenere un volto femminile. Questo solo per gli effetti “a tema maschile”, come guerriero o steampunk perché scegliendo l’opzione floreale sono diventata una leggiadra pulzella con il gonnellino rosa.

Penserete: “meglio non vederti struccata allora!” – probabilmente sì, ma questo è un altro esempio di Gender Bias.

Quali sono i possibili effetti nella vita reale?

Inasprimento degli Stereotipi di Genere

Indubbiamente tra i primi di questi vi è l’inasprimento degli stereotipi di Genere: proviamo a digitare su Google Immagini << Uomo Professionista>> le prime dieci stringhe di immagini ci restituiscono uomini in giacca e cravatta. Se proviamo però a ricercare << Donna Professionista>> avremo solo una riga prima di arrivare a minigonne, occhiolini e sguardi seducenti.

Scelta di Candidati Uomini per una posizione Lavorativa

Immaginando una selezione di lavoro affidata esclusivamente ad un algoritmo (già accade) tutte le parole declinate al femminile potrebbero non essere riconosciute ed automaticamente scartate durante uno screening di curricula.

La Finanza di Genere

Anche a livello economico e finanziario le donne continuano ad essere discriminate per una serie di pregiudizi e se questi venissero applicati all’IA? Se raccontiamo all’algoritmo o meglio se non spieghiamo all’algoritmo di eliminare il bias di genere è possibile che ad un uomo, dalla stessa banca, arrivi l’opportunità di un ottimo investimento, mentre ad una donna, secondo lo stereotipo che la stessa sia più propensa al risparmio rispetto che all’azzardo, probabilmente sarà proposta una soluzione più sicura e meno redditizia.

Errate Diagnosi Mediche

L’AI si sta diffondendo indubbiamente anche in campo clinico. Se prima il “ho letto su Google che…” meritava disapprovazione dal medico di turno ora la medicina stessa rincorre questo tipo di strumento creando algoritmi che mettono velocemente i pazienti in contatto con il professionista ottenendo una diagnosi precisa e in tempi brevi. Fino al 1993, però, le ricerche dei sintomi e i trials sulle possibili cure venivano condotti solo su pazienti di sesso maschile con la scusa di “proteggere la fertilità femminile” quindi la gran parte dei medicinali che assumiamo sono tarati sugli uomini. Ancora oggi le ricerche vengono condotte in una scala di 2 donne su 10.

Se in un prossimo futuro una donna dovesse ricevere diagnosi dalla rete potrebbe tranquillamente incappare in bias di genere ricevendo istruzioni e cure errate.

Questi sono solo alcuni dei Bias di Genere conosciuti e riconosciuti, ne parleremo ancora nei prossimi articoli. Quanto conta quindi il Linguaggio di Genere?

Rimani informata, iscriviti alla Newsletter.

Alla luce di quanto detto, pensi ancora di uscire indenne dall’IA anche se non hai mai fatto una Torta Pasqualina ricercando la ricetta su Google?

Scrivi il Tuo Pensiero nei commenti.

Una replica a “L’Intelligenza Artificiale è Femmina? Dubbi e Analisi”

  1. […] Per leggere l’articolo relativo al Gender Bias nelle Intelligenze Artificiali Clicca Qui […]

    "Mi piace"

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.