/*Google Analytics*/

Kriti Sharma e i pregiudizi nell’IA

17 Giu 2019 | Intelligenza Artificiale

L’intelligenza artificiale fa parte della nostra quotidianità. Spesso interagiamo con essa anche più volte al giorno, senza accorgercene: è presente negli assistenti virtuali e nei chatbot, ma anche nelle previsioni di acquisto e nei sistemi di raccomandazione. L’intelligenza artificiale migliora la nostra vita, ma cosa succede se queste tecnologie vengono sviluppate con pregiudizi umani?

Kriti Sharma, tecnologa e Giovane Leader ONU per gli SDG, si occupa di creare un’intelligenza artificiale eterogenea e diversificata, abbracciando il concetto di botness: l’IA non deve fingere di essere umana, deve piuttosto essere utile. Nel suo intervento a TEDxWawrick, Sharma ha analizzato la mancanza di diversità nell’IA e ha suggerito tre diversi modi attraverso cui creare algoritmi più etici.
L’analisi di Sharma parte dalla diffusa paura che le macchine possano prendere il sopravvento in un futuro più o meno lontano, ma la vera domanda da porsi è un’altra: quante decisioni l’IA prende basandosi su pregiudizi di genere, razza, estrazione sociale? Le IA imparano da noi pregiudizi sulla valutazione creditizia, sulle capacità lavorative basandosi su deduzioni sull’età, il genere, la razza. Rafforziamo i pregiudizi sia nella programmazione che nell’uso che facciamo dell’intelligenza artificiale e questo si ripercuote sulla società. Menti brillanti stanno programmando incredibili oggetti basati sull’IA ma con pericolosi pregiudizi che dovremo smantellare.
Come? Insegnando i giusti valori all’IA e tenendo a mentre tre concetti guida:

• La necessità di una maggiore consapevolezza dei nostri pregiudizi e delle macchine che ci circondano
• L’importanza di far progettare l’IA a gruppi eterogenei
• L’urgenza di dare alle macchine diverse esperienze da cui imparare.

Sharma prosegue nel suo intervento con esempi e suggerimenti che, ne siamo certi, miglioreranno il presente e il futuro. Conclude poi con due spunti di riflessione, che vi invitiamo ad ascoltare.

Potrebbe interessarti

Share This