Presente e futuro dell’Intelligenza Artificiale

di ANDREA CATTANIA <>
Comparsa in Africa quasi duecentomila anni fa, la nostra specie ha imparato ben presto (si fa per dire) a utilizzare quello che ci distingueva dagli altri animali per alleviare i problemi della sopravvivenza. Abbiamo costruito lance con cui, grazie al pollice opponibile (chi può avere dimenticato la scena iniziale di 2001, Odissea nello spazio?), potevamo affrontare grossi animali evitando il corpo a corpo. La ruota e il fuoco sono state tappe fondamentali, momenti magici che oggi chiamiamo “singolarità tecnologiche”: prodigi di creatività dovuti a qualche individuo più dotato di altri, e di balzo in balzo siamo passati dai tre Paleolitici (Inferiore, Medio, Superiore) al Neolitico: una società in cui ci procuravamo i mezzi di sussistenza con la caccia, la pesca e la raccolta di prodotti della natura lasciava il passo a un’altra, basata sull’agricoltura e sull’allevamento. Da animali migratori siamo diventati stanziali e abbiamo costruito città. Abbiamo inventato la scrittura, ci siamo dati leggi, abbiamo iniziato a coniare monete. Ma già da molto tempo avevamo arricchito la nostra vita non solo con l’arte figurativa e con la musica, ma anche con la capacità di riflettere nel tentativo di rispondere alle grandi domande esistenziali.

L’IA settant’anni dopo Turing

Per rispondere alla domanda cruciale, se e quando sarà possibile per una macchina superare l’intelligenza dell’uomo, abbiamo cercato di approfondire il significato di questo termine. Pochi anni dopo l’introduzione del computer, Alan Turing escogitò un test per misurare l’intelligenza di una macchina. Egli si disse convinto che nel 2000 le valutazioni corrette, da parte dell’esaminatore che avesse eseguito il test, non avrebbero superato il 70%. In effetti la previsione è stata sostanzialmente rispettata, ma i progressi dell’IA sono sempre più evidenti. Sebbene non esista ancora, allo stato attuale, un modello completo delle attività cognitive umane nel campo dei processi consci e dei relativi schemi neurali, la nostra conoscenza nel campo della cognizione e delle neuroscienze computazionali è in forte aumento e consente di affermare che nel corso di questo secolo sarà possibile ottenere una IA di livello umano.
Turing, che introdusse il suo famoso test nel 1950, era convinto già allora che fra un essere intelligente e una sua copia artificiale non ci fossero differenze significative. Lo avrebbero confermato i primi risultati ottenuti dai programmi “intelligenti”, che ebbero la meglio sull’uomo nel gioco degli scacchi (Deep Blue contro Garry Kasparov, 1997) e nel Go (AlphaGo contro Lee Sedol, campione coreano, 2015).
Nel frattempo, un gruppo di esperti si era riunito all’Università di Dartmouth per individuare le linee su cui condurre queste ricerche. Era l’estate del 1956. In un primo tempo ebbero la meglio coloro che proponevano l’impostazione simbolica, come Marvin Minsky, Herbert A. Simon e Allen Newell. La loro idea era che la mente umana si comporti come una macchina e che la capacità cognitiva del cervello operi mediante simboli: ne consegue la possibilità di mettere a punto un modello che consenta di replicarla in un computer. Le prime applicazioni di questo approccio accesero molti entusiasmi, ma non andarono oltre le realizzazioni più semplici, come automi capaci di effettuare dimostrazioni matematiche.
Più fertile si dimostrò la via indicata da Frank Rosenblatt, che partiva dall’ipotesi che l’intelligenza sia una proprietà funzionale del cervello biologico e che la sua simulazione richieda la capacità di riprodurne la struttura.

Rappresentazione grafica del Test di Turing

Reti neurali artificiali

Questo modello, detto connessionista, costituì la premessa per lo sviluppo delle RNA. Prima di allora, nella storia, non avevamo mai realizzato un programma in grado di apprendere in modo autonomo. Fin dalle prime fasi della sua evoluzione, l’Intelligenza Artificiale fece tesoro di un’intuizione di Alan Turing: nella definizione e nell’utilizzazione di un modello della nostra mente è meglio, anziché studiare le capacità cognitive di un adulto, partire dalla mente di un bambino e implementare il relativo modello in un computer, educandolo.
Negli anni ’80 e ’90 si affermarono i primi sistemi esperti, capaci di emulare un processo decisionale in ambiti specifici, come ad esempio quello della diagnostica medica, grazie alla conoscenza di dati e regole. Tali sistemi dispongono di un motore di inferenza logica, che consentono di estendere la conoscenza precedente con l’acquisizione o la generazione di nuovi dati.
I sistemi esperti di prima generazione utilizzavano una logica proposizionale e potevano affrontare solo problemi deterministici, in cui un dato può essere solo vero o falso. Ad essi seguirono quelli probabilistici o stocastici, dove ai dati viene associata una probabilità. In ogni caso, una caratteristica fondamentale dei sistemi esperti consiste nel fatto che non è necessario modificare il codice del programma per raggiungere un nuovo livello di conoscenza. Nella diagnostica medica, ad esempio, un sistema progettato per aiutare i medici nel fare diagnosi e prescrivere cure conosce le regole della medicina ed è in grado di aggiornarle sulla base di nuovi dati empirici. L’aggiornamento può essere effettuato sia dal medico che introduce nuove regole, sia dai dati generati dal motore di inferenza dopo avere acquisito i dati relativi ai sintomi dei nuovi pazienti.

La macchina è in grado di pensare?

Quando parliamo di intelligenza, pensiamo all’attività cerebrale. Ma l’intelligenza non può essere isolata dal rapporto con il mondo circostante. Pensiamo all’uomo: in ogni momento della nostra vita ascoltiamo voci, musica, opinioni; vediamo immagini e riceviamo stimoli in molteplici direzioni. Come scrive lo scienziato cognitivo britannico Andy Clark, “il cervello biologico è, principalmente, un centro di controllo del corpo biologico. E i corpi biologici si muovono e interagiscono con il mondo fisico.” E lo stesso vale anche per gli animali.
Ma il problema non si riduce, ovviamente, all’acquisizione dei dati provenienti dall’ambiente circostante. La grande varietà di sensori progettati negli ultimi decenni ci consente di estendere la percezione artificiale ai tre sensi della vista, dell’udito e del tatto. Quindi è necessario estrarre le informazioni utili in funzione degli obiettivi del sistema e interpretare i dati così ottenuti. In molti settori, come quello della robotica, si fa larghissimo uso della visione e della percezione artificiale.
Tutto ciò, deve essere chiaro, non costituisce una novità. Già dalla fine degli anni 80’ gli scienziati del MIT avevano osservato che il comportamento delle formiche era tanto più complesso quanto più lo era l’ambiente con il quale interagivano. Di conseguenza, essi decisero di concentrarsi su queste attitudini, prima di approfondirne le capacità cognitive. Non ci si accontentò di trovare risposte alle già complesse domande sull’intelligenza delle macchine, ma la nuova frontiera si spostò sulla loro capacità di apprendere. Nacquero allora i primi robot capaci di imparare dall’ambiente circostante. Un automa di questo tipo è in grado, fra le altre cose, di memorizzare un movimento e ripeterlo quando serve.

Le macchine e l’apprendimento

Il tentativo di emulare il funzionamento del cervello è sfociato nella creazione di programmi in grado di spingersi fino al limite del singolo neurone. I neuroni artificiali sono connessi in reti neurali artificiali, che operano sulla base di funzioni di attivazione regolando la propagazione dei segnali, analogamente a quanto avviene nel cervello dell’uomo.
Dopo avere accumulato anni di esperienza sulle capacità di apprendere da parte di una macchina, abbiamo saputo mettere a punto reti basate su neuroni più evoluti, dotati di funzioni di attivazione più complesse. Le nuove reti nascono dall’osservazione del funzionamento della corteccia visiva del cervello biologico. Oggi questa evoluzione è sfociata negli algoritmi di deep learning (apprendimento profondo), in cui i dati provenienti dal mondo reale vengono scomposti in base a diversi livelli di astrazione ed elaborati da più reti, in modo che l’uscita di una di esse costituisca l’ingresso della successiva.
La combinazione tra algoritmi di deep learning e computer ad elevatissima capacità di calcolo ci ha permesso di conseguire notevoli risultati in diversi campi, come il riconoscimento vocale e delle immagini e l’elaborazione del linguaggio naturale.
Se ci sorprendono alcune applicazioni dell’IA già da tempo diffuse e utilizzate, come il supporto alle scelte di investimento o i veicoli autoguidati, le applicazioni nella logistica o nella domotica, prepariamoci al prossimo salto di qualità: il passaggio all’Intelligenza Artificiale forte, così definita in contrapposizioni alle forme odierne (IA debole e IA pragmatica). Oggi siamo nella fase in cui queste forme di intelligenza si integrano sempre più fra loro e collaborano.
Di questo passo, l’intelligenza degli automi potrebbe superare la nostra nel giro di qualche decennio, anche se non tutti sono di questa idea.

Problemi sociali e problemi etici

Le funzioni sempre più estese dell’Intelligenza Artificiale destano crescenti preoccupazioni su molti fronti, prima di tutto in campo sociale e sul terreno dell’etica. Nel primo caso, il grido di allarme -già presente, peraltro, da molti anni- riguarda ancora l’IA debole. Vengono così definiti i sistemi di Intelligenza Artificiale che si limitano a “comportarsi come se fossero intelligenti”. Ogni sistema progettato e installato per sostituire il lavoro umano potrà avere, come effetto, quello di privare qualcuno delle proprie forme di sostentamento. È una dinamica sociale nota da tempo, fin dall’inizio dell’Ottocento, quando i luddisti si illusero di risolvere il problema ricorrendo alla distruzione delle macchine.
Come in passato, così pure ai nostri giorni e per molti anni a venire sono (e saranno) in atto due opposte tendenze, la distruzione dei posti di lavoro preesistenti, ora affidati ai nuovi arrivati, e la creazione di nuove attività sul fronte del lavoro intellettuale. Questa dialettica, che potrebbe avere il suo fascino se non costasse gravissime sofferenze a larghe fasce di popolazione, potrebbe essere attenuata -e in parte lo è- se prevalesse una visione laica del mondo, che privilegia la scienza e la cultura permeando di saggezza anche la politica e le istituzioni. Fra gli autori che hanno approfondito questo tema, uno dei più ottimisti è Jeremy Rifkin, esperto di rivoluzioni tecnologiche e delle relative conseguenze sociali. Egli coglie in questa situazione le premesse di un futuro migliore per tutti, che esprime con le parole qui di seguito riportate.

“Verso la metà del secolo, i nostri nipoti guarderanno indietro verso l’era del duro lavoro con la stessa totale incredulità con la quale noi guardiamo alla schiavitù e alla servitù di altri tempi. L’idea stessa che il valore di un essere umano si misuri quasi esclusivamente attraverso la sua produzione di beni e servizi e la sua ricchezza materiale gli sembrerà barbara e primitiva e verrà considerata una terribile perdita di valore umano per la nostra discendenza, che vivrà in un mondo altamente automatizzato, dove gran parte di ciò che è necessario per vivere si produrrà a basso costo, se non a costo zero, privatamente, per poi condividerlo.”
Sono estremamente preoccupanti le possibili conseguenze dell’IA in campo etico, alcune delle quali stanno già alimentando le cronache dei nostri giorni. Pensiamo, ad esempio, agi incidenti causati da un veicolo a guida autonoma: chi ne risponderà? Il costruttore, il progettista, il proprietario? Il problema si pone ogni qualvolta un sistema intelligente prende una decisione, le cui conseguenze impreviste ricadono su vittime innocenti.

Le tre leggi di Asimov

Ritroviamo qui il dualismo che ha caratterizzato l’intera storia dell’Intelligenza Artificiale, da quello sopra descritto fra simbolismo e connessionismo a quello fra deduzione e induzione, ed ora fra determinismo e adattamento. Si tratta di un tema estremamente delicato, che riguarda la moralità del comportamento di una macchina, chiamata a decidere fra due o più opzioni.
Si possono adottare a questo riguardo l’approccio top-down o l’approccio bottom-up. Il primo formula le regole di comportamento che il sistema dovrà rispettare: è subito evidente, però, che non sarà facile prevedere tutti i casi che si potranno presentare in pratica. È la difficoltà di ridurre a un algoritmo semplice il complesso sistema morale umano. In alternativa, con il secondo approccio un sistema intelligente viene programmato con un piccolo numero di regole elementari, sulla base delle quali svilupperà il proprio codice etico adattandolo alle diverse situazioni in cui si troverà. Ciò richiede avanzate tecniche di apprendimento automatico e la capacità di interagire con il mondo circostante. Ad oggi non sono ancora state messe a punto tecniche tanto sofisticate, ma forse la soluzione non è lontana.
Non dobbiamo dimenticare, peraltro, che il problema della moralità del comportamento di una macchina si è imposto alla nostra attenzione già settant’anni orsono, anche se allora era argomento di fantascienza. In Girotondo (Runaround), un racconto degli anni ’40, Isaac Asimov dettava tre leggi per il comportamento di un robot:

  • non arrecare danno a un essere umano, neppure a causa di un proprio mancato intervento;
  • obbedire agli ordini degli esseri umani, purché non in conflitto con la regola precedente;
  • proteggere la propria esistenza, quando ciò non contrasti le due regole precedenti.

Prepariamoci oggi per evitare il peggio!

In un futuro più lontano, però (ma quanto lontano? Pare che nessuno sia in grado di rispondere), ci potremmo trovare a dover fronteggiare situazioni devastanti. Penso alla possibilità di sistemi intelligenti controllati da organizzazioni terroristiche o criminali, alla possibilità che forme di intelligenza superiore possano prendere il sopravvento sul genere umano. Proprio per il fatto che nessuno è in grado di sapere se tutto ciò possa accadere, né quando, ci dobbiamo attrezzare per tempo a fronteggiare queste situazioni. Esistono diversi Istituti, creati e diretti da scienziati dotati di una forte sensibilità etica, il cui obiettivo è lo studio di queste possibili direttrici di sviluppo e la previsione dei relativi scenari possibili. Fino ad alcuni decenni fa, i possibili rischi per un’eventuale estinzione del genere umano si riducevano a un uso improprio dell’energia nucleare o all’impatto con un gigantesco asteroide, poi abbiamo preso coscienza dei pericoli rappresentati dal degrado dell’ecosistema e delle pandemie. Dobbiamo ringraziare il nuovo secolo se ad essi si è aggiunto quello di una nuova specie che noi stessi abbiamo creato.