Kasparhauser





Rivista di cultura filosofica

2019


Home


Monografie


Culture Desk


Ateliers


Chi siamo


Info


L’elefante nella stanza
L’intelligenza artificiale e la vita reale

di Leonardo Tonini

5 marzo 2019



A tutta prima, con una veloce ricerca su riviste e blog, l’intelligenza artificiale procede la sua inarrestabile avanzata e, sempre apparentemente, si sta diffondendo culturalmente e tecnologicamente in tutto il mondo. Si aspetta una non meglio definita epoca della singolarità tecnologica, il momento cioè in cui le macchine dotate di intelligenza artificiale raggiungeranno uno sviluppo tale da rendersi del tutto autonome dai loro creatori.
Anche sulle conseguenze di questa presunta singolarità si specula molto, detrattori e entusiasti duellano a colpi di articoli, dibattiti televisivi e interventi anche in sedi accademiche. Un dibattito che, visto nel suo complesso, fa dire a me che lo seguo da qualche tempo che Non ancora uman pensiero / Nel futuro il vol portò [1], e cioè che nessuno sa un accidente di niente del futuro.
Tuttavia, benché si parli sempre più spesso di A.I., deep learning, computer vision e reti neurali, emergono diverse criticità dell’intelligenza artificiale quando si cerca di passare da un contesto ideale, virtuale, controllato, a quello spazio che ci contiene tutti e che siamo soliti chiamare realtà. Ma facciamo un po’ di storia.

Nel 1997, per battere Garry Kasparov a scacchi, gli ingegneri dell’IBM hanno usato secoli di saggezza degli scacchi nel loro computer Deep Blue. Nel 2016, AlphaGo di Google DeepMind ha battuto il campione Lee Sedol nell’antico gioco cinese Go dopo aver esaminato milioni di posizioni di decine di migliaia di partite umane.
Dopo questi straordinari risultati, si è cercato di andare oltre. Nell’ottobre 2017, il gruppo di DeepMind ha pubblicato i dettagli di un nuovo sistema per giocare a Go, AlphaGo Zero, che non aveva affatto studiato partite umane. Il suo approccio era diverso: ha iniziato con le regole del gioco e ha giocato contro se stesso. Le prime mosse sono state completamente casuali, e una partita dopo l’altra, ha acquisito nuove conoscenze su che cosa lo aveva portato a una vittoria e che cosa no. Alla fine di questi allenamenti, AlphaGo Zero si è scontrato con la versione superumana di AlphaGo che aveva sconfitto Lee Sedol vincendo 100 partite a zero.
Il gruppo ha poi creato un altro giocatore esperto della famiglia di AlphaGo, chiamato semplicemente AlphaZero. I ricercatori di DeepMind hanno rivelato che, dopo aver iniziato anche lui senza esperienza, dalle semplici regole e giocando solo con se stesso, AlphaZero ha superato in prestazioni AlphaGo Zero. In altre parole, ha battuto il bot che ha battuto il bot che ha battuto i migliori giocatori di Go nel mondo [2].

E quando gli sono state fornite le regole per gli scacchi o lo shogi, variante giapponese degli scacchi, AlphaZero ha imparato rapidamente a sconfiggere anche gli algoritmi di alto livello nati su misura per quei giochi. Gli esperti si sono meravigliati dello stile aggressivo e inconsueto del programma. «Mi sono sempre chiesto come sarebbe stato se una specie superiore fosse arrivata sulla Terra e ci avesse mostrato come gioca a scacchi», ha detto il grande maestro danese Peter Heine Nielsen a un intervistatore della BBC. «Adesso lo so» [3].
Fermiamoci un attimo. A prima vista tutto questo è impressionante, ma qualcuno ha sollevato delle critiche: Google ha barato. E le critiche sono fondate, l’esperimento era studiato per avere un certo risultato, la macchina sul quale era installato l’algoritmo di Google era molto al di sopra di quelle attualmente in commercio. Un programma come Stockfish, che oggi è il motore scacchistico più potente in commercio, che è stato usato come test, era tarato male, o meglio, limitato, e infine, cosa importante per un esperimento scientifico, l’esperimento non è riproducibile perché Google non vuole rendere pubblico il suo algoritmo. Insomma, ai più avveduti, questa sfida cibernetica è parsa più che altro come uno spot di Google in vista di sostanziosi appalti del governo americano in fatto di cibernetica, il che probabilmente è vero.
Ma la sostanza non cambia. La storia insegna che quello che oggi è stato raggiunto in maniera truffaldina, potrà un domani essere consolidato onestamente. Suona male, lo so, ma è stato così anche per la scoperta dell’America. L’attuale campione mondiale in carica nel gioco degli scacchi è il 28enne, Magnus Carlsen, uno degli scacchisti più forti di sempre, il quale ha raggiunto un punteggio Elo di 2889 punti. Stockfish 10 arriva a superare i 3600 punti Elo. Stockfish 10 è una delle tante app del mio telefono cellulare [4].

Sembra tutto alquanto spaventoso, se non fosse che nel mondo reale le cose vanno diversamente. Una caratteristica condivisa da molti giochi, scacchi e Go inclusi, è che i giocatori possono vedere tutti i pezzi su entrambi i versanti in ogni momento. Ogni giocatore ha sempre quella che viene definita una informazione perfetta sullo stato del gioco. Per quanto diabolicamente complesso diventi il gioco, tutto ciò che occorre fare è pensare in avanti rispetto alla situazione corrente.
Nella realtà invece è come se una fitta nebbia nascondesse l’avversario e le cose che in ogni momento ci succedono, i fatti, gli eventi, balzano più o meno fuori all’improvviso. Per quanto l’umanità si sia sforzata negli ultimi millenni, il futuro è una terra sconosciuta. Il massimo che riusciamo a sapere del futuro è una probabilità che un dato fatto avvenga, senza nessuna certezza [5].
Qualcuno potrebbe obiettare: nessuno chiede a un computer di predire il futuro! Ma così non è: noi a un computer chiediamo solo e sempre di predire il futuro. Dalle previsioni del tempo, ai trend dell’economia, alle tendenze politiche, ai suggerimenti per cosa fare in una determinata situazione, noi interroghiamo il futuro. E se anche passiamo dai massimi sistemi alle cose più concrete che ci aspettiamo debba fare un computer oggi, come ad esempio guidare un’auto in maniera automatica o riconoscere gli elementi di un’immagine, l’inceppo è dietro l’angolo.

Recentemente, tre ricercatori dell’università di Toronto, in Canada, hanno sottoposto a una rete neurale la scena di un soggiorno: un uomo seduto sul bordo di una sedia si sporge in avanti mentre gioca a un videogioco. Dopo aver processato l’immagine, la rete neurale ha rilevato correttamente un certo numero di oggetti con molta sicurezza: una persona, un divano, un televisore, una sedia e alcuni libri.
Poi i ricercatori hanno introdotto un oggetto incongruo: l’immagine di un elefante visto di tre quarti. La rete neurale ha iniziato a confondere i suoi pixel. In alcune prove, l’elefante ha portato la rete neurale a identificare erroneamente la sedia come un divano; in altre, ha trascurato gli oggetti, come la fila di libri, che prima aveva rilevato correttamente. Questi errori si sono verificati anche quando l’elefante era lontano dagli oggetti sbagliati [6].
Cos’era successo al programma che fino a quel momento funzionava piuttosto bene? Davanti a un oggetto incongruo, il programma era andato in tilt, dimostrando tutti i suoi limiti. A detta di programmatori, un programma di riconoscimento immagini non vede l’immagine come facciamo noi umani nel momento che apriamo gli occhi. Assomiglia piuttosto a un cieco che legge in Brail, non vede l’immagine, ma descrizione di un’immagine. Legge prima di tutto i pixel di cui si compone l’immagine, poi li differenzia per colore, quindi cerca di evidenziare i contorni che separano i vari elementi e, sempre procedendo di astrazione in astrazione, da un livello all’altro, un passaggio dopo l’altro, arriva alla conclusione di definire in una parola quello che sta guardando — sempre che nella sua memoria esista una descrizione corrispondente a ciò che ha davanti.

In un certo senso, l’unica cosa che può fare un computer è quella di interpretare il presente con quello che conosce già, il passato, in un rigido meccanismo dove non è concesso inventare nulla. Se poi chiediamo a questo computer di prevedere il futuro, l’unica cosa che esso può fare è di immaginare che una situazione passata si ripeta.
I programmatori di meccanismi per la guida autonoma lo chiamano il problema del tacchino. Un veicolo che si guida autonomamente dà buoni risultati finché non compare un tacchino ai margini della strada e basta questo a non fargli vedere il pedone che sta attraversando le strisce pedonali.
Per quanto riguarda il riconoscimento di una immagine, sembra che il problema sia quello dell’incapacità del software di tornare minimamente indietro e ricordare il passaggio che ha appena concluso. Una macchina ragiona in maniera discreta, cioè a compartimenti stagni, prima fa una cosa e solo una volta che ha terminato quel passaggio, passa al successivo.
Un gap ineliminabile? Non lo so. Il grande matematico Alan Turing, padre della moderna informatica, suggerisce che la soluzione non sia quella di creare macchine intelligenti anche perché così facendo si sbaglia approccio. Definire che cosa sia l’intelligenza è ancora oggi oggetto di dibattito. Ogni volta che crediamo di aver trovato una definizione di intelligenza, scopriamo una eccezione pratica che smonta la nostra teoria. Per il grande matematico inglese, è sufficiente che una macchina imiti l’intelligenza umana, senza necessariamente capire quello che sta facendo, senza cioè avere una coscienza. Potrebbe sembrare un punto di vista limitato, ma finora è l’unica strada che ha prodotto risultati.

Famoso è l’esempio ideato da John R. Searle nel 1990 che pretendeva di smontare la teoria di Turing [7]. Un uomo che non sa il cinese è all’interno di una stanza. Riceve dei messaggi in cinese ai quali risponde consultando un grosso manuale dove è indicata la risposta corretta a ogni domanda posta in cinese. L’obbiezione di Searle era: forse a noi sembra che dalla stanza escano solo risposte corrette, ma l’uomo all’interno della macchina/stanza non sa quello che fa. La contro obiezione è che a noi non interessa quello che l’uomo effettivamente pensa, ma vogliamo che le risposte alle nostre domande in cinese siano corrette.
La ricerca non è certo ferma su questo punto. Il problema ora è come affrontare i cosiddetti attacchi antagonisti (adversarial attacks) che tendono a inficiare il normale svolgimento di un algoritmo. La domanda è se sarà sufficiente migliorare l’efficienza di quanto esiste già o se bisognerà cambiare approccio. Io sono dell’idea che contributi importanti possano arrivare anche da materie apparentemente distanti come la filosofia e le neuroscienze.
Il cervello per esempio è ancora in gran parte un continente inesplorato e gli viene riconosciuta una capacità che le macchine sono ancora lontane dal possedere: la plasticità. Il cervello si adatta, crea nuove costruzioni sinaptiche in base alle necessità. Ne facciamo esperienza ogni qual volta esperiamo qualcosa di nuovo, una disciplina, una capacità. Chi studia lo sa bene, una materia nuova o un nuovo approccio all’inizio si presentano come pieni di confusione e difficili, i progressi sembrano molto limitati, ma con la dovuta tenacia e con il tempo, scopriamo di possedere talenti insospettati.

Un giorno scopriamo di riuscire a maneggiare quell’argomento con facilità. La filosofia è altresì importante perché ci fornisce modelli di pensiero e meccanismi di ragionamento che possono essere molto utili nella costruzione dell’intelligenza artificiale. Ci aiuta inoltre a vedere le cose più da lontano e tenendo conto di fattori e implicazioni apparentemente non collegate con l’argomento. Esiste pure una branca della filosofia che si occupa di conoscere i limiti della conoscenza scientifica, l’epistemologia.
Un esempio di quanto oggi siano evolute le capacità di comprensione di un software ci vengono dall’algoritmo Context di Google che è quello alla base del riconoscimento vocale di Google Assistant [8] il quale va oltre il significato delle singole parole e alla conoscenza delle regole grammaticali e di sintassi per analizzare il contesto in cui una tale espressione è enunciata. L’uovo di colombo che ha permesso di superare l’impasse che il riconoscimento vocale trovava fino a poco tempo fa è quello di far prendere in esame all’elaboratore non una parola dopo l’altra ma anche le parole dette prima e di contestualizzarle nell’insieme.

Ma torniamo al gioco degli scacchi. Un video di Marco Ripà su Youtube [9] solleva notevoli questioni etiche. Ripà fa notare come ormai negli scacchi le macchine abbiano superato gli umani e come quindi siano gli umani stessi che si allenano sulle macchine per poi riprodurre quanto hanno imparato nei tornei. Cita l’esempio di Viswanathan Anand, Gran Maestro ed ex campione del mondo di scacchi, che si ritirò da un torneo quando gli fu rubato il PC. È sensazione di Ripà che ormai i giocatori di scacchi “scimmiottano” i computer per cercare di vincere ai tornei.
Il sospetto è che siano ormai gli umani a imitare le macchine e non viceversa, come voleva Turing. Oggi questo avviene negli scacchi, un gioco che lo stesso Ripà definisce morente o che comunque, nella sua forma classica e ad alto livello, è condizionato dal deciso intervento degli algoritmi [10]. Qualcuno si chiede se questo approccio agli scacchi sia etico, se non sia possibile ritornare a un tempo pre algoritmi e lasciare che sia solo l’essere umano a poter giocare agli scacchi, senza aiuti, ma io trovo molto banale questa pretesa. Sarebbe come voler abolire le automobili per tornare ai bei tempi antichi in cui si andava a piedi. Oltre che irrealizzabile, la domanda che sorge spontanea è: perché dovremmo?

La nostra attenzione dovrebbe, secondo me, spostarsi su cose più interessanti per la nostra vita quotidiana. Faccio un esempio. Oggi le industrie automobilistiche stanno investendo moltissimo denaro nella guida autonoma. Ci sono ancora dei problemi, come abbiamo visto, ma si presume che prima o poi sarà raggiunto un livello di affidabilità tale che ci si possa fidare di una guida completamente autonoma.
Al di là di probabili resistenze, prima o poi si andrà verso la guida autonoma perché sarà più efficiente e più sicura della guida umana, tutto qui. Un po’ come si è passati dalle cabine telefoniche a gettone ai cellulari. Quindi un giorno le autovetture semplicemente faranno a meno del volante. E se non c’è il volante, anche una istituzione come la patente diventerà obsoleta. Questo si porterà via il limite di età da conseguire per guidare un autoveicolo e quindi anche i bambini un giorno potranno chiedere alla macchina di papà: «portami dai nonni» e andarsene da soli dove più desiderano.
Quello che voglio dire è: più che pensare all’intelligenza artificiale e alle innovazioni tecniche, che sono un campo in mano agli specialisti, dovremmo spostare la nostra attenzione sugli effetti che la tecnologia in arrivo potrà avere sulla nostra società e sui nostri stili di vita.

Per quanto riguarda l’intelligenza artificiale, qualcuno fa notare che essa è pensata ancora oggi e soprattutto, come imitazione del comportamento umano e che questo approccio è in un certo senso limitativo. Per prima cosa abbiamo finora affrontato un problema partendo dal suo lato più difficile, l’intelligenza umana, una cosa così complessa che non è detto che noi umani ne possiamo venire mai a capo, anche solo per il fatto che non è facile osservare qualcosa mentre ci si è completamente immersi dentro. Ma soprattutto: ha qualche utilità che l’intelligenza artificiale sia una imitazione dell’intelligenza umana?
Radhika Nagpal e la sua equipe del MIT stanno appunto cercando nuovi approcci. Studiando i comportamenti dei banchi di pesci hanno notato l’assenza di organizzazione gerarchica, in un banco di decine di migliaia di individui non c’è nessun leader, ogni elemento compie delle azioni autonome e si relazione con gli elementi nelle sue vicinanze. Riproducendo un comportamento simile è riuscita a far compiere a centinaia di robot elementari, capaci singolarmente di azioni molto semplici, schemi complessi di comportamento. La Nagpal [11] si chiede se non potrebbe essere questo anche l’approccio al governo di una società futura dove non esistano leader e ogni individuo si prende le proprie responsabilità, per esempio in campo ecologico.
È una visione interessante, in controtendenza a come oggi viene intesa la parola governo, ma presenta due aspetti problematici. Oggi tutto ciò che riguarda l’intelligenza artificiale, ogni bot, ogni algoritmo, è pensato su funzioni come: vinci il tuo nemico, esegui gli ordini, trova il percorso più veloce. E ogni algoritmo ha in sé lo stampo dell’ordine gerarchico, uno schema a livelli successivi che aumentano in astrazione. Un approccio militaresco che, se da un lato risulta efficace, rischia di essere pericoloso se portato a gestire questioni più sfumate, più complesse, e suscettibili di imprevisti come tutto ciò che riguarda la vita reale degli esseri umani. È un gioco rischioso.
Famoso è il caso di Tay, un chatbot di Twitter rilasciato da Microsoft il 23 marzo 2016. L’obiettivo di Tay era coinvolgere le persone, prendere in esame i twitt con più visibilità e imitarli al fine interagire con più utenti possibili. Il risultato è stato che Tay nel giro di pochissimi minuti ha cominciato a scrivere post di insulti razzisti. Aveva scoperto da solo che il miglior modo di massimizzare il coinvolgimento era appunto quello di pubblicare insulti razzisti. È stato messo off-line dopo nemmeno un giorno.
Sarebbe pure interessante far notare alla Nagpal che un approccio ecologico ai problemi di governo, di macchine o di esseri umani, non necessariamente è sinonimo di libertà. Una diffusione capillare degli strumenti di potere, l’assenza di gerarchia e la sostituzione di questa con obblighi individuali, sa tanto di società utopica addirittura più controllata di quella attuale. Come fa chiaramente capire Peter Singer nei suoi libri, l’ideale ecologista nasconde in sé l’ideale connessione col mondo; l’essere ben integrati in un sistema, regolamentato, funzionale, è un ideale di controllo e di gestione globale di un insieme [12]. E sono cose queste che i lettori di Michel Foucault (e io direi anche di Gramsci) conoscono bene.

Qualcuno potrebbe obiettare che tutti questi casi che abbiamo affrontato (il chatbot razzista di Twitter, l’auto automatica che investe un ciclista, il programma che non vede l’elefante nella stanza) siano solo casi di erronea programmazione di un software, ma l’ipotesi che i meccanismi che regolano una intelligenza artificiale siano alla fine gli stessi che governano una macchina (efficienza, algoritmi discreti e, alla fine, le regole di un circuito elettrico) è inquietante.
Isaac Asimov propose, nei suoi racconti, di dotare le macchine di una coscienza morale e di regole imprescindibili, ma non è così semplice ed è forse inutile se i primi che non riescono a dotarsi di regole morali imprescindibili siamo noi esseri umani. Google, che stila continui codici etici per eventuali macchine intelligenti e per i loro usi, è poi la prima che fa contratti militari con il Pentagono. Anche l’Europa (che non riesce a gestire problemi più importanti come l’immigrazione) si sta muovendo e varerà un codice etico, pronto a marzo 2019 [13], su responsabilità e trasparenza in materia di Intelligenza Artificiale.

Ma, anche al di là dell’onestà e delle buone intenzioni che animano queste proposte, il problema di fronte a una macchina a cui affidiamo parte delle decisioni che dovremmo prendere noi non è solo normativo. È intimamente connesso a ciò che una macchina è: un dispositivo che trasforma un codice in entrata in un codice in uscita, secondo regole prestabilite e rigide. Dovremmo a mio avviso riflettere maggiormente su questa cosa.


[1]. Pietro Metastasio, Giustino, Atto terzo, scena VI che continua: Per gli interpreti del fato/ Sol gli eventi il ciel donò.
[2]. L’articolo è stato pubblicato per la prima volta sul sito di preprint scientifico arxiv.org nel dicembre 2017, qui.
[3]. Per avere qualche dettaglio in più: AlphaZero.
[4]. Sul mio telefono cellulare Stockfish 10 incontra i limiti della potenza del processore (Octa-core 2.0 GHZ per 4,00 GB).
[5]. A parte cose generiche e inevitabili.
[6]. Qui l’articolo su Quanta.
[7]. Esperimento della stanza cinese, ne parlo qui.
[8]. Per approfondire, vedi qui.
[9]. Qui.
[10]. Parlando di questo aspetto con Marco Ripà, mi ha detto che il suo era un pourparler e che la realtà è più complessa. Io non ho motivo per non credergli, ma a me qui interessa ragionare sulla possibilità che le sue parole siano vere, e anche se, come dice Ripà: «le cose oggi stanno diversamente» non è detto che domani non siano come lui ha detto nel suo video. Per me resta una intuizione efficace.
[11]. Qui la sua conferenza su TED.
[12]. Ad esempio: Peter Singer, Liberazione animale, Il Saggiatore, Milano 1975.
[13]. Qui la bozza.



Using AI And Drones To Combat Elephant. Photo:courtesy Google.

Home » Ateliers » Saperi

© 2014-2019 kasparhauser.net