Intelligenza Artificiale: orgoglio e pregiudizio

Intervista a Marco Basaldella, researcher @University of Cambridge

Marco Basaldella
Researcher @University of Cambridge

Einstein affermava che è più facile spezzare un atomo che un pregiudizio.

A quanto pare, la regola vale anche per gli algoritmi di Intelligenza Artificiale, visto che sviluppano pregiudizi. Come è possibile che una forma mentis così tipicamente umana abbia attecchito in quelli che sono processi artificiali? Come si può fare a comprovare la loro oggettività?

Londa Schiebinger, storica della scienza di Stanford, in un articolo pubblicato su Nature ce lo dice chiaro e tondo: l’Intelligenza Artificiale può essere sessista e razzista. Ne sono tristi esempi la categorizzazione automatica di Google che nel 2015 nelle immagini contrassegnava le persone di colore come “gorilla” o altri algoritmi studiati dai ricercatori dell’Università della Virginia che, al cospetto di una scena in cucina, restituivano solo presenze femminili e non maschili, come a indicare che è quello il posto dove deve stare una donna.

 ai_pregiudizio

Per capire i modi in cui il pregiudizio umano viene amplificato e perpetuato dagli algoritmi di Machine Learning, bisogna aver ben chiari i meccanismi che stanno alla base del loro funzionamento. Due sono gli aspetti di cui bisogna tener conto, sottolineati in un recente TedX talk da Marco Basaldella, informatico e ricercatore nel campo dell’AI: 

  • Correlation is not causation

La correlazione tra due fatti non implica per forza che uno sia la causa dell’altro. Per esempio, se guardiamo l’andamento del consumo di mozzarella e il numero di persone che si laureano in ingegneria civile negli USA, possiamo notare che i due valori seguono lo stesso andamento, e quindi sono apparentemente correlati.

Ma anche se mangiare mozzarelle non rende ingegneri migliori, l’apparente relazione causa effetto tra i due dati farà sì che se diamo in pasto questi dati a un algoritmo AI chiedendogli di predire quante persone si laureeranno in ingegneria lo farà, ma sulla base di un ragionamento sbagliato.

E nel caso dell’esempio dell’uomo in cucina, la rete neurale è stata addestrata con immagini dove comparivano solo donne: in questo modo è scattata la correlazione, se una persona sta in cucina deve essere per forza una donna. 

  • Garbage in, garbage out

 garbagein_garbageout

Alimentare gli algoritmi con dati sbagliati, che contengono dei pregiudizi e sono quindi “spazzatura” (garbage), li farà imparare su ragionamenti sbagliati. Ne sono un esempio gli algoritmi di risk assessment usati nei tribunali americani, che stabiliscono le possibilità che l’imputato commetta nuovi reati.

Questi algoritmi sembrano però svantaggiare le persone di colore: un’inchiesta indipendente ha infatti dimostrato che l’algoritmo associava la ripetibilità del reato al colore della pelle, indipendentemente dal contesto economico e sociale a cui appartenevano gli imputati, perché questi dati non gli erano stati forniti. Per questi motivi, considerando come l’AI sia ormai parte integrante delle nostre vite, è indispensabile studiare delle soluzioni che possano rendere gli algoritmi più equi.

Simili algoritmi spopolano anche lato business, soprattutto nell’ambito del Content Management. Data la mole di contenuti prodotti oggigiorno dalle aziende, diventa indispensabile classificarli al fine di organizzarli e renderli ricercabili e riutilizzabili nel tempo. Poterlo fare in maniera automatica con l’ausilio dell’AI comporterebbe un grande risparmio in termini di tempo ed energie. Ma spesso il riconoscimento semantico non avviene senza strafalcioni o imprecisioni.  

THRON implementa motori AI con la capacità “learning by doing” di apprendere come taggare partendo da un insieme anche ridotto di contenuti e di aggiungere in automatico i metadati pertinenti ai contenuti successivi, con risultati sempre più precisi.

Ma approfondiamo l’argomento con Marco Basaldella, esperto della materia.

 

D: Cosa vuol dire addestrare l’Intelligenza Artificiale? Secondo te come si possono migliorare i processi utilizzati per il training degli algoritmi?

R: Addestrare un algoritmo di Machine Learning è come insegnare a un bambino: le decisioni che prende saranno tanto buone quanto sarà la sua “esperienza”. E come un bambino assorbe i pregiudizi dell’ambiente in cui viene cresciuto, lo stesso vale per un algoritmo di Machine Learning – esempio ne sono, appunto, i modelli che associano il “cucinare” alle donne, semplicemente perché non gli è mai stato mostrato un uomo ai fornelli.

Per questo è importante che nella fase di progettazione di un algoritmo di Machine Learning vengano coinvolti sia esperti di Intelligenza Artificiale che esperti di dominio che siano in grado di aiutare a selezionare le feature più adatte all’ambito in cui si lavora. Allo stesso modo, una volta addestrato il modello, è bene valutare assieme all’esperto di dominio non solo cosa ha imparato ma anche perché fa certe scelte.

Per esempio, gli algoritmi di valutazione del rischio associavano all’etnicità il rischio di commettere reati perché non erano informati sulle condizioni sociali ed economiche degli imputati, nonostante sia (fortunatamente) ormai universalmente accettato che siano queste ultime, e non il colore della pelle, ciò che spinge le persone verso la criminalità. L’algoritmo ha quindi saltato un passaggio: è vero che negli USA ci sono, in proporzione, più persone di colore in carcere; ma questo avviene perché generalmente nella società americana, nonostante gli avanzamenti degli ultimi decenni, in cima alla società ci sono ancora i bianchi, che hanno accesso a scuole migliori, lavori migliori, possibilità di credito migliori, e così via. L’algoritmo, però, non poteva sapere queste cose perché non gli erano state dette, e quindi ha formato un “pregiudizio”.

Qualcuno potrebbe quindi obiettare che, se gli algoritmi assorbono i nostri pregiudizi, non sono meglio di noi. Come detto, però, i pregiudizi sono evitabili attraverso una selezione adeguata dei dati in base a cui far ragionare l’algoritmo, un processo chiamato feature engineering. E poi, perlomeno, le macchine rimangono ancora impermeabili alle emozioni: è stato infatti dimostrato che i giudici che danno pene più severe dopo che la loro squadra del cuore ha perso, e in questo – per ora! – un’Intelligenza Artificiale non è ancora in grado di imitarci.