background

La discriminazione degli algoritmi: un problema etico

Gli studi recenti hanno dimostrato che la discriminazione effettuata dagli algoritmi è originata dalla poca trasparenza dei sistemi di Intelligenza Artificiale

I pregiudizi (bias) presenti negli algoritmi implicati nei moderni sistemi di Intelligenza Artificiale sono resi evidenti nel momento in cui vengono emessi dei giudizi iniqui che evidenziano un tipo di discriminazione contro un individuo o un gruppo di individui. Una discriminazione avviene quando viene negata un’opportunità o un diritto ad un individuo, con motivazioni infondate e inappropriate. Sulla base di questo, l’ingiustizia e l’iniquità causate dai “biased-algorithms” costituiscono una violazione del principio umanitario di non-discriminazione.

L’origine del bias

Gli studi recenti hanno dimostrato che la discriminazione effettuata dagli algoritmi è originata dalla poca trasparenza dei sistemi di Intelligenza Artificiale: se è impossibile conoscere con certezza come un determinato parametro sia stato identificato ed elaborato da un sistema, non è possibile identificare precisamente la causa del bias che risulta da un preciso processo meccanico. I tecnici informatici hanno distinto due diversi tipi di bias, sulla base della loro origine, che possono essere rilevati all’interno di un dispositivo AI: i bias preesistenti hanno origine dalle istituzioni sociali, dalle abitudini e dalle pratiche comuni che sono state create dagli individui e dalle organizzazioni pubbliche o private, e poi esistono bias tecnici dovuti ad imperfezioni del design tecnico del dispositivo AI.

Discriminazioni di genere e razziali

Gli algoritmi spesso dimostrano una propensione a fare distinzioni di genere o di razza, specialmente nei recenti sistemi di riconoscimento facciale o vocale utilizzati da Microsoft, Google e Face++. Un esempio molto noto di discriminazione di genere da parte di un algoritmo è avvenuto nel 2015, l’algoritmo di ricerca di Google è stato scoperto essere gender-biased in quanto mostrava annunci di lavoro con salari molto alti solamente a persone in cerca di lavoro di sesso maschile, mentre le donne trovavano meno annunci di questo genere sulle loro bacheche. Il trattamento ineguale messo in atto dal sistema riflette una prospettiva sessista che è stata trasferita dai creatori del software al software stesso.

Un esempio molto conosciuto di algoritmo race-biased”, che effettua discriminazioni su basi razziali, è riconducibile al caso che ha coinvolto il sistema giudiziario americano nel 2015. Un team di giornalisti investigativi chiamato ProPublica ha scoperto che un algoritmo di valutazione del rischio, chiamato COMPAS e utilizzato nel sistema giudiziario americano per i reati criminali, era discriminatorio nei confronti degli imputati di colore. COMPAS era stato creato dalla Northpointe Company, fondata da Tim Brennan e Dave Wells nel 1989, con lo scopo di individuare il rischio di recidività di un impuntato attraverso le risposte date a 137 domande. Il sistema di valutazione del rischio calcola i punteggi sulla base di un numero di variabili come il livello di educazione, lo storico degli impieghi lavorativi, i crimini precedenti e altri ancora. Razza e genere non sono stati inclusi nel calcolo, per evitare qualsiasi tipo di pregiudizio. Nonostante questo, il sistema COMPAS ha dimostrato il doppio delle probabilità nell’identificare erroneamente gli imputati di colore come soggetti ad alto rischio di recidività, e il doppio delle probabilità nell’identificare erroneamente gli imputati non di colore come soggetti a basso rischio. Com’è possibile? La risposta è da ricercarsi negli algoritmi che sono stati formulati in modo da identificare gli imputati di colore come più probabili futuri criminali rispetto a tutti gli altri imputati. Quindi, la formula di questo algoritmo è stata creata da individui che possedevano pregiudizi razziali e valori discriminatori.

Una nuova etica

Il problema etico che nasce dai pregiudizi rilevabili nei sistemi di Intelligenza Artificiale è il risultato dei pregiudizi stessi dei creatori o presenti nei dati utilizzati per programmare gli algoritmi. È necessario costruire le basi di un’etica che porti alla creazione di un AI che rispetti in maniera ferrea il principio di non discriminazione e promuova valori quali l’uguaglianza e l’equità. Questo è possibile solo attraverso la promozione di requisiti come la trasparenza e la chiarezza nei processi che determinano le decisioni prese dai dispositivi AI. Ecco perché viene richiesto sempre di più alle compagnie e alle organizzazioni di esplicitare tutti i dati collezionati, inoltre tutti gli algoritmi utilizzati sono sottoposti a test e studi per determinarne eventuali difetti.

Cosa si può fare

Una volta che il bias interno all’algoritmo viene identificato, è possibile rimuoverlo attraverso una modifica del sistema, ma sfortunatamente questo non sempre è possibile. Altre soluzioni legate ai bias degli algoritmi sono state individuate nell’ambito legislativo attraverso delle misure regolative esplicitate nel General Data Protection Regulation (GDPR) approvato nel 2016 dall’Unione Europea, il quale sottolinea i requisiti di trasparenza necessari per l’utilizzo corretto degli algoritmi. Anche l’aumento di consapevolezza tra i consumatori che usufruiscono di questi dispositivi AI può essere una spinta verso l’adozione di standard etici più stringenti ed equi.

Ma per evitare che il sessismo, il razzismo e altre forme di discriminazione vengano riprodotte dall’AI è necessario fare attenzione nel processo di costruzione di questi sistemi che riproducono i valori sociali del nostro tempo. Altrimenti, il rischio è quello di creare macchine intelligenti che rispecchiano non solo i nostri valori ma anche gli stereotipi e pregiudizi che caratterizzano la nostra società.

534391


Condividi il post

  • L'Autore

    Giulia Pavan

Categorie

Temi Tecnologia ed Innovazione


Tag

IntelligenzaArtificiale algoritmi discriminazione etica

Potrebbero interessarti

Image

La discriminazione degli algoritmi: un problema etico

Giulia Pavan
Image

La classificazione dell'Intelligenza Artificiale

Matteo Bergamini
Image

Predicare bene: il peso delle aspettative occidentali

Alessandro Micalef
Accedi al tuo account di Mondo Internazionale
Password dimenticata? Recuperala qui