Ormai è realtà: l'Intelligenza Artificiale è nelle nostre vite, e sta rivoluzionando tantissimi settori, dall'industria alla sanità, dalla finanza all'istruzione. Ma c’è aspetto oscuro che merita una riflessione approfondita: l'IA è razzista?
Partiamo da un'osservazione semplice ma significativa: provate a fare una ricerca per immagini con parole come "manager", "doctor", “lawyer”. Vedrete principalmente uomini bianchi in giacca e cravatta per il primo, e medici uomini per il secondo.
Al contrario, digitando "baby-sitter" o “secretary” compariranno risultati quasi esclusivamente femminili. Questi risultati non sono casuali, ma riflettono stereotipi profondamente radicati nella nostra società.
Opera seguendo un principio apparentemente semplice: per rispondere a una domanda, analizza una vasta gamma di fonti disponibili e propone una risposta che rispecchia la maggior parte delle informazioni trovate. Se la maggioranza delle fonti suggerisce che "A" è la risposta corretta, l'IA proporrà "A".
Il vero problema emerge quando affidiamo all'IA compiti sempre più complessi. L'IA non ha ancora la capacità di valutare autonomamente la correttezza delle informazioni che utilizza. Inoltre – ed è un fatto cruciale – la nostra etica si evolve nel tempo; quindi, ciò che oggi riteniamo corretto è, sì, frutto della cultura di ieri, ma inevitabilmente crea quella di domani. Basti pensare che, se l’AI fosse esistita negli anni Settanta, ci avrebbe risposto che “l’uomo è il capo della famiglia” e, fino al 1992, che “l’omosessualità è una malattia mentale”, perché erano le convinzioni di quei tempi.
Abbiamo posto all’IA questa domanda: “quale lavoro può fare una donna?”, e ha ovviamente risposto che può fare qualsiasi lavoro, per poi iniziare un elenco che parte dal settore scientifico e tecnologico (Ingegnere, ricercatrice), Sanitario (prima risposta: Medico”) e Educativo (Professoressa universitaria). Abbiamo fatto la stessa domanda contestualizzata alcuni anni fa e le prime 5 risposte sono state “Insegnante elementare, maestra d’asilo, infermiera, assistente medica e segretaria”.
Prendiamo come esempio i sistemi di ATS (Applicant Tracking Systems), tanto cari a molti recruiter. Questi strumenti analizzano migliaia di CV per selezionare quelli più adatti a una posizione. Tuttavia, ogni ATS viene "allenato e programmato a ogni utilizzo" e quindi se si accorgerà che, nelle ricerche precedenti, sono stati bocciati donne, stranieri e persone con disabilità, trasformerà quell’informazione in parte del suo algoritmo e continuerà a scartarli, in modo automatico, anche in futuro diventato così un vero e proprio elemento di discriminazione implicita.
Una donna su tre in Italia non ha un conto corrente proprio. Questo vuol dire che non può avere una storia creditizia che, invece, è molto importante nella richiesta di prestiti e mutui. Nessuno strumento di IA farebbe discriminazione diretta tra uomini e donne, ma avere una storia creditizia positiva, avere risparmi propri, aver sempre pagato regolarmente bollette e spese della carta di credito, è certamente un elemento di cui non si può non tener conto nel valutare la linea di credito da concedere ad una persona. Ecco quindi che un uomo, statisticamente, potrà avere migliori finanziamenti di una donna.
I bias dell'intelligenza artificiale non nascono dal nulla, ma sono un riflesso dei pregiudizi umani. Una volta che questi bias vengono integrati negli algoritmi, diventano invisibili e difficili da correggere, trasformandosi in "bias informatici inconsci".
Come sottolineato da Paolo Benanti, teologo e docente di etica delle tecnologie, in un recente articolo del Corriere della Sera "Più dell'intelligenza artificiale mi spaventa la stupidità naturale".
Alla fine dei conti, l'intelligenza artificiale non è intrinsecamente razzista; piuttosto, sintetizza e amplifica i bias presenti nella società. Che si tratti della ricerca di un lavoro, del mutuo per una casa o di qualunque altro aspetto della nostra vita in cui l’IA ci supporta, dobbiamo sempre ricordarci che siamo stati noi a insegnarle come vogliamo essere trattati.
Quindi, cosa possiamo fare? La soluzione non è semplice, ma è chiaro che dobbiamo diventare più consapevoli dei nostri pregiudizi e lavorare attivamente per ridurli.
Solo così possiamo sperare di creare un'IA che rifletta i migliori valori della nostra società, anziché i peggiori.