/*Google Analytics*/

La questione complessa dell’etica nell’intelligenza artificiale

intelligenza-artificiale

Quando si parla di intelligenza artificiale ed etica vi sono due scenari che la fanno da padrone.

Il primo è lo scenario utopico, secondo cui i nuovi sistemi intelligenti daranno vita a un nuovo illuminismo e miglioreranno la nostra vita, mentre gli esseri umani inaugureranno una nuova era, non dovranno più lavorare e potranno perseguire obiettivi più nobili. Il secondo è lo scenario apocalittico, secondo cui i sistemi intelligenti diventeranno macchine da guerra impossibili da controllare, supereranno gli esseri umani e ci ruberanno il lavoro, dando vita a un futuro lontano dai bisogni attuali. Si tratta di visioni certamente remote e sproporzionate, ma indipendentemente da quale si ritenga più realistica è necessario tenere conto di come l’uomo può – e deve – influenzare l’intelligenza artificiale nel corso della sua stessa evoluzione, plasmandone il tessuto morale.

Il rapporto tra esseri umani e intelligenza artificiale, infatti, è ancora strettissimo poiché è l’uomo a inviare i parametri di output e risolvere i problemi, mentre le macchine si limitano a visualizzare le informazioni e trovare il modo migliore per ottenere risultati in maniera più efficiente. Dato questo rapporto, sono tre gli step per controllare in maniera più etica i progetti di IA:

  • Fornire dati e input in maniera corretta, trasparente e inclusiva;
  • Garantire un’adeguata supervisione, che passi da monitoraggio e audit regolare degli algoritmi affinché si eliminino eventuali distorsioni;
  • Tenere in considerazione le ramificazioni delle nuove tecnologie, attraverso una governance affidabile e controlli per il rafforzamento in positivo e in negativo.

In che modo l’intelligenza artificiale è diversa dalle altre tecnologie?

L’intelligenza artificiale può avere diversi ambiti di applicazione, dall’analisi dei Big data per le previsioni sull’impatto commerciale di un prodotto al riconoscimento facciale, dalle applicazioni di navigazioni basate sul GPS ai chatbot, ma anche comprensione del linguaggio e prevenzione di frodi.

A far maggiormente discutere sono le applicazioni in campo militare, utilizzate per esempio per analizzare filmati, guidare veicoli oppure prendere decisioni in maniera autonoma. Rendere l’intelligenza etica, perciò, di per sé non vuol dire nulla se non rendere trasparente le modalità operative degli algoritmi, i criteri in base a cui decidono e le finalità. Per questo motivo, lo scorso 20 gennaio il Parlamento Europeo ha adottato una relazione in cui si chiede che l’IA non sostituisca mai l’essere umano e non lo sollevi mai dalle responsabilità in campo decisionale: sono da qui scaturite indicazioni importanti, relative al bisogno di supervisione soprattutto dei sistemi utilizzati per la difesa.

Da Google a Dair, l’impatto delle ricerche di Timnit Gebru

L’ingegnera informatica Timnit Gebru, classe 1984, già co-leader del team di etica per l’intelligenza artificiale di Google, già dal 2018 mette in guardia dai pregiudizi razziali e di genere nei software e nei modelli linguistici di grandi dimensioni. La controversia con Mountain View ha portato all’uscita dall’azienda della ricercatrice, che sta ora provando ad apportare cambiamenti significativi al settore dall’esterno grazie alla fondazione dell’Istituto Dair (Distributed Artificial Intelligence Research): lo scopo è la valutazione dei risultati dell’utilizzo dell’intelligenza artificiale grazie al contributo di ricercatori di tutto il mondo, con particolare attenzione all’Africa e alla migrazione africana negli Stati Uniti.

Dair parte dalla ferma convinzione di distribuire i saperi e coinvolgere comunità solitamente ai margini del processo. In opposizione al soluzionismo tecnologico, Dair si propone di agire – appunto – eticamente, consapevoli dei limiti e dei danni che alcuni utilizzi dell’intelligenza artificiale provocano. Uno dei primi progetti di Dair riguarderà l’uso di immagini satellitari per studiare, grazie al supporto di ricercatori locali, l’apartheid geografico in Sudafrica, ma l’auspicio è che pratiche così virtuose aumentino.

Potrebbe interessarti

Share This