NOTIZIE

Un mondo connesso

notizie ‒ 11 aprile 2017

Intelligenza, consapevolezza e coscienza nell’ultimo libro di Philip Larrey

di Carlo Maria Polvani

 

Viene presentato l’11 aprile a Roma l’ultimo libro di Philip Larrey (Connected World. From Automated Work to Virtual Wars: The Future, by Those Who are Shaping It (Londra, Penguin Books, 2017, pagine 320, 14,99 dollari). Docente della Pontificia università Lateranense, l’autore aveva pubblicato, in Futuro Ignoto. Conversazioni sulla nuova era digitale (If Press, 2014), quattordici interviste con altrettanti professionisti altamente qualificati, su come la rivoluzione digitale stesse trasformando i loro specifici campi di competenza. Nel nuovo libro Larrey arricchisce la sua ricerca con colloqui con altri quindici prestigiosi opinion-leaders come Eric Schmidt e Jared Cohen (rispettivamente di Alphabet, la parent company di Google, e di Jigsaw, conosciuta anteriormente come Google Ideas), Sir Martin Sorrell e Maurice Lévy (rispettivamente delle due grandi imprese specializzate nel campo della pubblicità e delle relazioni pubbliche Wpp e Publicis), Don Norman e Anders Sandberg (rispettivamente del Design Lab dell’università della California San Diego e del Future of Humanity Institute dell’università di Oxford).

L’opera di Larrey risulta gradevolissima nello stile e avvincente nel contenuto. Il merito è da attribuirsi in gran parte all’autore che è riuscito, grazie all’uso di domande brevi e incisive, a dare ai suoi interlocutori la possibilità di esporre il loro pensiero in maniera trasparente e progressiva attraverso una serie di concatenamenti ingegnosi e pertinenti. Una delle tanti questioni affrontate da Larrey — e, possibilmente, una delle migliori per illustrare la pertinenza e la qualità del suo libro — è quella dello sviluppo dell’intelligenza artificiale e del suo rapporto futuro con l’intelligenza umana. A seguito della creazione dei moderni elaboratori elettronici da parte di Alan Turing (1912-1954) e di John von Neumann (1903-1957), sono stati tanti infatti gli ingegneri che hanno sognato di costruire un computer dotato di un’intelligenza artificiale capace di rivaleggiare con quella umana. Negli anni novanta, la International Business Machines concepì il cervello elettronico denominato Deep Blue con l’obiettivo di renderlo capace di sconfiggere qualsiasi essere umano al gioco degli scacchi. Nel 1997, Deep Blue riuscì nell’impresa mortificando, in un epico torneo vinto all’ultima delle sei partite in palio, il gran maestro Garry Kasparov. Il successo del computer della Ibm era principalmente dovuto alla sua capacità di calcolare in anticipo le milioni di situazioni sulla scacchiera derivanti, a cascata, da ogni possibile mossa; e, proprio per questo, a pochi venne in mente di riconoscere nella capacità computazionale di Deep Blue un riflesso fedele dell’intelligenza umana, in quanto tale elaboratore elettronico assomigliava ancora troppo a una calcolatrice, seppure dalla memoria eccezionale e della sorprendente potenza computazionale. Qualche anno fa, però, la Google-Deepmind sviluppò Alphago, un computer il cui scopo era di diventare imbattibile al gioco del go. Gli informatici californiani avevano scelto apposta il gioco da tavolo strategico popolarissimo in Oriente perché, dopo solo pochi turni, un computer non avrebbe potuto contare sulla sua capacità di calcolo per decidere la mossa successiva, giacché avrebbe dovuto elaborare numeri di miliardi di cifre.

Alphago fu quindi dotato dai suoi ideatori di un’intelligenza artificiale innovativa, caratterizzata dell’abilità d’imparare dalla propria esperienza per mezzo di complessi processi di apprendimento — come il reinforcement (“incoraggiamento”) — derivati dalla biologia neuronale e persino dalla psicologia comportamentale. Nel marzo del 2016, Alphago vinse in maniera convincente il torneo di go contro il gran maestro coreano Lee Se-dol, ricevendo altresì l’onore di esser menzionato fra le Breakthrough of the Year (“innovazioni dell’anno”) dalla rivista «Science». Ancora più sorprendente risulta il fatto che l’intelligenza di Alphago sembra essere di tipo intuitivo e sufficientemente duttile per imparare molti altri giochi e cimentarsi con i più svariati compiti; e, cosa ancora più stupefacente, che quando si chiede a due Alphago di giocare assieme, essi manifestino inediti comportamenti di collaborazione e di competitività, alquanto atipici per delle intelligenze artificiali.

Poiché è ragionevole supporre che, nel giro di pochi decenni, saranno disponibili nuove forme d’intelligenza artificiale che imiteranno sempre più perfettamente l’intelligenza umana, pare legittimo chiedersi se esista veramente una differenza fondamentale e insormontabile fra queste due intelligenze.

Quanti rispondono negativamente a questa domanda, fanno spesso ricorso all’argomento derivato dal ragionamento induttivo conosciuto come il Duck Test — «se assomiglia a un’anatra e starnazza come un’anatra, allora è un’anatra, coniato dallo scrittore statunitense James Whitcomb Riley (1849-1916) — e riformulato in riferimento a un’intelligenza artificiale come: «Se impara come un’intelligenza umana e risolve i problemi come un’intelligenza umana, allora è un’intelligenza umana». Quanti, invece, rispondono affermativamente alla stessa domanda, sembrano spesso dirigersi nella direzione di fare della consciousness (“la consapevolezza”) la cartina di tornasole per distinguere l’intelligenza artificiale da quella umana, giacché, effettivamente finora, non è mai stata osservata una macchina intelligente che si sia manifestata consapevole della sua propria esperienza.

Ma lo sviluppo tecnologico accelerato a cui assistiamo oggigiorno ha aperto anche il dibattito speculare, ossia: può l’intelligenza umana potenziarsi e migliorarsi per mezzo dell’intelligenza artificiale pur rimanendo, sempre e comunque, distintamente umana?

Questa domanda è più che mai pertinente da quando Elon Musk, il fondatore di Spacex (la più grande azienda aerospaziale privata) e di Tesla (il primo produttore mondiale di automobili elettriche ad alte prestazioni), ha dato vita alla Neuralink. Questa startup di neurotecnologia avanzata ha ricevuto la missione di disegnare impianti tecnologici da inserire nel cervello umano con lo scopo di migliorarne le capacità intellettive, partendo dalla ricerca di una brain-computer interface (letteralmente, “interfaccia cervello-computer”) che permetterebbe l’accesso a internet a livello neuronale. Potrebbe sembrare fantascientifico che si possa collegare il nostro encefalo direttamente alla rete come se esso fosse un semplice tablet o un comune smartphone ma, a ben pensarci, chi avrebbe mai detto, prima del 2014, che sarebbero state confezionate delle lenti a contatto che permettono, grazie a circuiti integrati, di misurare il tasso di glucosio nel sangue e che potrebbero, un giorno, grazie a delle cosiddette neuro-protesi, dare degli ordini al pancreas al fine di dosare la corretta produzione di insulina nell’organismo?

Non c’è quindi da sorprendersi se il filosofo ed esperto di intelligenza artificiale Daniel Dennet — conosciuto come uno dei Four Horsemen of New Atheism (i “quattro cavalieri del nuovo ateismo”) insieme al biologo Richard Dawkins, al neuroscienziato Sam Harris e al giornalista Christopher Hitchens — ha recentemente previsto, insieme a Deb Roy del Massachusetts Institute of Technology, che sia imminente una trasformazione planetaria di una magnitudine superiore a quella verificatasi ai tempi della cosiddetta esplosione cambriana, il periodo della storia dell’evoluzione della vita sulla Terra durato 25 milioni di anni, durante i quali, per ragioni ancora non del tutto delucidate, fecero la loro apparizione migliaia di nuove specie di essere viventi.

Nessuno può prevedere se un evento di tale portata stia per prodursi, ma è difficile negare che l’integrazione dei progressi della tecnologia con quelli della biochimica potrebbero, in un futuro non tanto lontano, portare l’homo sapiens a essere la prima forma di vita sul pianeta capace di scegliere la direzione dell’evoluzione della propria specie. A quel punto, sarà l’intelligenza umana a definire l’intelligenza artificiale oppure quest’ultima a modellare la prima?

In un articolo del 1909, G.K. Chesterton scrisse: «Men do not differ much about what things they will call evils; they differ enormously about what evils they will call excusable». Insomma, se è vero che gli uomini si trovano abbastanza d’accordo su quali cose si possano considerare cattive ma molto meno su quali mali sia giusto tollerare, allora i dilemmi che aspettano l’umanità non saranno solo una questione di coscienza nel senso di consciousness (“consapevolezza”) ma soprattutto di coscienza nel senso di conscience: la capacità, tipicamente umana, non solo di distinguere il bene dal male ma anche di fare delle scelte che assicurino che il bene trionfi sempre sul male.

 

(Da L’Osservatore Romano, Anno CLVII, 2017, N.84 p.5)