La mancata consapevolezza delle potenzialità dell’intelligenza artificiale

Nov 30, 2022 | Intelligenza Artificiale

Siamo spesso poco consapevoli della presenza dell’intelligenza artificiale nelle nostre vite e, al tempo stesso, ci vorrà ancora del tempo prima che una macchina possa sostituire l’uomo

Era il 1956 quando il matematico John McCarthy organizzava un workshop estivo tra scienziati presso il Dartmouth College, in New Hampshire, coinvolgendo studiosi del calibro di Herbert Simon (premio Nobel per l’Economia ed esperto di Teoria delle Decisioni), Nathaniel Rochester (pioniere dell’ingegneria elettronica), Marvin Minsky (vincitore del premio Touring) e Claude Shannon (inventore della Teoria dell’Informazione). L’entusiasmo che caratterizzò quel ciclo di incontri non portò solo a coniare l’espressione “Intelligenza Artificiale”, ma si trasferì da un ateneo all’altro fino a portare a previsioni secondo cui entro i due decenni seguenti le macchine avrebbero potuto svolgere qualsiasi attività umana e che entro un decennio si sarebbe arrivati a computer pienamente intelligenti.

L’interesse del cinema non fu da meno: a fine anni Sessanta Stanley Kubrik diede vita al malefico computer HAL e ci regalò il capolavoro “Odissea nello Spazio”, ma sappiamo bene che la realtà fu decisamente differente. Lo stesso Minsky ammise che “le cose facili sono difficili”: per esempio, replicare le abilità di un bambino è più complesso che battere un campione del mondo di scacchi, impresa che riuscì al computer IBM “Deep Blue” nel 2006 contro Garri Kasparov. I problemi principali da affrontare sono due: l’imprevedibilità e il contesto.

Potenza di calcolo

L’intelligenza artificiale, per decenni, si è basata sulla logica deduttiva e sull’attività di scienziati che impongono al computer una certa visione della realtà, viziata dall’impostazione originali e non in grado di prevedere le deviazioni che la realtà produce rispetto alla teoria. Gerd Gigerenzer, psicologo e direttore emerito del Max Planck institute for Human Development, sostiene che per anni il funzionamento dell’intelligenza artificiale si è basato sulla cosiddetta “illusione della certezza”: «Lo storytelling è il seguente: l’AI ha battuto i migliori giocatori negli scacchi e nel “Go” (gli “scacchi” cinesi, molto più complessi in termini di numerosità e varietà di azioni di gioco degli scacchi tradizionali). La potenza di calcolo raddoppia ogni due anni. Pertanto, le macchine presto faranno tutto meglio degli uomini. Le due premesse sono corrette, la conclusione è sbagliata». La potenza di calcolo, infatti, può essere utile nelle situazioni stabili, ma non risolve tutti i problemi.

Leggere la complessità

È qui che subentra il paradigma induttivo dell’intelligenza artificiale, stimolato dall’incredibile quantità di dati a nostra disposizione con l’avvento di Internet e la diffusione degli smartphone. L’intelligenza artificiale, infatti, si sta facendo strada sempre più nelle nostre vite, ma spesso non ne cogliamo la diffusione. Grazie invece a queste innovazioni a portata di tutti, possiamo ipotizzare salti tecnologici come far sì che le macchine imparino a leggere la complessità della realtà che ci circonda proprio come farebbe il cervello di un bambino. Per far imparare la macchina sono necessari i dati: più dati abbiamo, più decisivo diventa l’uso che vogliamo farne, visti anche i costi della ricerca, sia di base che applicata, e la difficoltà attuale di reperire i chip. In che modo stiamo valorizzando e analizzando i dati? Questa è un’altra storia, che dobbiamo imparare a riscrivere.

Articoli correlati