Il Test di Turing venne pensato appositamente per valutare il livello di intelligenza di una macchina, ma una macchina che lo supera, non è per forza anche «pensante». Il pensiero è una caratteristica della coscienza e le macchine odierne ancora non la possiedono. Se la possiedono, non sono in grado di raccontarcelo perché non ne sono consapevoli. Se non ne sono consapevoli, allora effettivamente non possiedono una vera e propria coscienza, essendo questa frutto di un’insieme di funzioni, tra cui quella metacognitiva.
IN BREVE
Indice
THE IMITATION GAME
Il Test di Turing venne pensato appositamente per valutare il livello di intelligenza di una macchina, ma come definire l’intelligenza? Intelligenza, da intelligere, intendere, è la facoltà di conoscere e comprendere. Trattasi di una funzione attiva, che consente a breve termine di trovare soluzioni a problemi di tipo razionale, relazionale, motorio, visivo ed emozionale. Ad oggi l’intelligenza artificiale (IA) è all’ordine del giorno, vi sono diversi software e robot umanoidi definiti «intelligenti», eppure il Test di Turing risale alla metà del secolo scorso, quando le IA erano ancora in evoluzione. Nel 1950, il grande matematico Alan Turing fu il primo a domandarsi se le macchine fossero in grado di pensare. Per rispondere al suo stesso quesito, si servì di un gioco chiamato «gioco dell’imitazione», da cui prende il nome The Imitation Game, il film del 2014 con Benedict Cumberbatch che racconta la storia di Turing.
Il gioco dell’imitazione
Supponiamo di avere una persona, una macchina e un interrogatore. L’interrogatore si trova in una stanza separata dall’altra persona e dalla macchina. L’interrogatore ha il compito di determinare quale delle altre due è la persona e quale è la macchina. Egli conosce l’altra persona e la macchina come «X» e «Y», ma non sa quale etichetta corrisponda alla macchina e quale all’altra persona. Al fine di comprendere chi è X e chi è Y, è autorizzato a porre domande ad entrambi, quali ad esempio: «X, per favore, può dirmi se X gioca a scacchi?». Qualunque tra la macchina e l’altra persona sia X, deve rispondere alle domande rivolte a X. Lo scopo della macchina, che sia X o Y, è cercare di indurre l’interrogatore a concludere erroneamente che la macchina è l’altra persona; al contrario, l’obiettivo dell’altra persona è cercare di aiutare l’interrogatore a identificare correttamente la macchina. La macchina realmente in grado di pensare è quella che riesce ad imitare così bene la persona, da confondere l’interrogatore. Ipotizziamo ora di ripetere il gioco due volte: la prima con tre umani, la seconda con due uomini e una macchina. Se la percentuale di volte in cui l’interrogatore indovina chi è l’uomo e chi la macchina è simile prima e dopo la sostituzione del secondo umano con la macchina, allora l’algoritmo è considerato intelligente, dal momento che, in questa circostanza, non è distinguibile da un essere umano.
«Non sono un robot»
Per vedere un esempio di test di Turing online, è sufficiente aprire un qualsiasi sito che richiede l’autenticazione tramite CAPTCHA. In realtà in questo caso parliamo di un test di Turing inverso, dove non è l’umano che cerca di identificare il computer, ma è il computer che cerca di distinguere l’umano da un altro computer. Ancora non esiste una IA sufficientemente evoluta da essere in grado di leggere ed interpretare un’immagine distorta, o comunque non è disponibile per l’utente medio, dunque se un sistema è in grado di farlo, è probabile che sia un umano. Per questa ragione, prima di accedere a molti siti web, viene richiesta un’autenticazione tramite lettura di lettere e numeri graficamente distorti, i CAPTCHA. Peter Swirski discusse l’idea di ciò che ha definì test Swirski, essenzialmente il test di Turing inverso, sottolineando che superava la maggior parte delle obiezioni fatte alla versione originale. Ricollegandosi a questa idea, Hinshelwood descrisse la mente come un «apparato per riconoscere la mente». Stando a questa definizione, è pensante ciò che è in grado di riconoscere il pensiero, ma non è questo il caso delle IA. Nonostante esse siano in grado di distinguere un umano da una macchina (quindi un essere pensante da un essere non cosciente), non hanno consapevolezza della propria capacità, né del riconoscimento. Nonostante tutto non possono quindi essere definite coscienti, forse intelligenti, ma di certo non consapevoli.
Test di Turing superato? ELIZA e la stanza cinese
Con l’evoluzione delle IA, il test di Turing è stato man mano riformulato. Le ragioni sono diverse, dalla difficoltà della prima formulazione, alla nascita di nuove domande relative alla definizione di intelligenza artificiale. Semplici programmi, come ELIZA, un chatterbot che emula un terapista rogersiano, hanno costretto a rielaborare i criteri del test perché inadatti o facilmente soddisfatti da programmi evidentemente non pensanti. In particolare, il filosofo John Searle propose una modifica al test di Turing, che prese il nome di «stanza cinese», sostenendo l’inattendibilità del test originale come prova sufficiente a dimostrazione dell’intelligenza di un qualsiasi sistema informatico. In Minds, Brains and Programs, John Searle si oppose all’affermazione secondo cui «i computer opportunamente programmati hanno letteralmente stati cognitivi». Chiaramente, Searle era in disaccordo con l’idea di Turing secondo cui un computer adeguatamente programmato potrebbe davvero essere in grado pensare.
Il protagonista dell’esperimento mentale proposto da Searle era lui stesso, chiuso in una stanza. Come nel test di Turing, dall’altra parte vi era un interlocutore, ma questa volta di lingua cinese che comunicava tramite ideogrammi. Dal momento che Searle non conosceva la lingua straniera, gli veniva fornito un dizionario che spiegava come comporre frasi sensate ordinando meccanicamente gli ideogrammi in un determinato modo. Egli doveva infatti rispondere a delle domande che gli venivano fatte dall’interlocutore straniero. L’obiettivo del filosofo era quello di ingannarlo, facendogli credere che stava capendo il senso del discorso, quando in realtà non conosceva il significato di nessun ideogramma. Searle non aveva consapevolezza di ciò che stava scrivendo nelle sue risposte, allo stesso modo la macchina del test di Turing non era cosciente di quello che sta facendo, eppure lo faceva. Ciò che il filosofo voleva dimostrare era che una macchina poteva solo simulare l’intelligenza. Searle era in grado di metter insieme gli ideogrammi meccanicamente, ma non per questo poteva essere identificato come «cinese». La macchina del test di Turing poteva simulare meccanicamente una discussione, ma non per questo poteva essere definita «intelligente». Searle voleva dimostrare nello specifico che la mente non poteva fare a meno della semantica. A prescindere dagli elementi che componevano la frase, non era possibile comprenderla senza capire l’interazione tra le componenti.
Nessun computer può pensare?
Finora, l’argomento che abbiamo descritto arriva alla conclusione che nessun computer adeguatamente programmato può pensare. Sebbene questa conclusione non sia la stessa di Turing, è importante notare che è comunque compatibile con l’affermazione secondo cui il suo è un buon test per l’intelligenza. Difatti fino a questo momento non abbiamo parlato di intelligenza in senso stretto, bensì di metacognizione, intesa come cognizione della propria stessa cognizione, e di coscienza, anche se indirettamente. Il fatto che Searl riesca a comunicare pur non avendo consapevolezza di ciò che scrive, descrive una mancanza cosciente di cognizione. Searle sa di non sapere il senso di ciò che sta scrivendo, eppure lo sta scrivendo. Se l’intelligenza consente a breve termine di trovare soluzioni a problemi, come abbiamo detto all’inizio, allora Searle è intelligente, così come la macchina del test di Turing. Dato un problema comunicativo, entrambi riescono ad affrontarlo. Entrambi sono intelligenti? Potrebbero. Ciò che è certo è che entrambi non sono coscienti del significato delle frasi che stanno componendo meccanicamente. Ciò che dimostra l’esperimento di Searle è una mancanza di consapevolezza più che una mancanza di intelligenza.
INTELLIGENZA E COSCIENZA
C’è da fare una distinzione in intelligenza artificiale forte e debole. Turing era a favore della tesi dell’IA cosiddetta «forte» secondo cui è possibile costruire macchine capaci di simulare il pensiero umano. Un computer opportunamente programmato può davvero essere dotato di una genuina intelligenza, non distinguibile in nessun senso dall’intelligenza umana. Parliamo di «macchine dotate di mente in senso pieno e letterale», citando John Haugeland. Searle si oppose a questa concezione. Anche la tesi de l’IA debole ritiene che le macchine possano effettuare compiti e risolvere problemi complessi che richiederebbero l’uso dell’intelligenza da parte degli esseri umani, ma in questo caso l’accento viene posto su ciò che un programma è in grado di fare, senza fare assunzioni sul modo con cui lo fanno. I processi dell’IA debole non per forza coincidono con quelli mentali umani. Non si parla di «mente» in senso stretto. Un programma che esplora sistematicamente tutte le mosse potrebbe effettivamente essere in grado di giocare a scacchi come un essere umano, o meglio di lui, ma lo farebbe in un modo differente. Nessun umano gioca a scacchi analizzando di mossa in mossa tutte le possibilità di azione. Se la IA forte parla di mente, quindi di intelligenza come una componente del sistema cosciente, la IA debole la intende come un’abilità isolata di problem solving. Tuttavia in entrambi i casi si parla di intelligenza, qual è la «vera» definizione?
Micromondi e sistemi esperti
Immaginiamo un secondo esperimento mentale, differente rispetto a quello di Searle. Chiediamo al nostro computer di rispondere a tutte le domande della scala WAIS, uno tra i test di intelligenza tipicamente utilizzati per quantificare il Q.I. umano. Un software programmato in appositamente per risolvere l’intero test, otterrebbe un risultato positivo al 100%, potremmo quindi definirlo «intelligente»? Dipende dalla definizione che si da di «intelligenza». Trattandosi di un test progettato ad hoc per gli umani, possiamo paragonare la sua intelligenza a quella umana? Decisamente no. L’intelligenza umana appare come una componente del flusso cosciente, quindi in linea con il concetto di IA forte, un software intelligente, secondo questa definizione, dovrebbe essere cosciente più che intelligente in senso stretto. Purtroppo però lo scopo del test di Turing originale non era quello di quantificare la coscienza, bensì la semplice intelligenza.
Le IA solitamente sono progettate per eccellere in un determinato ambito, dai giochi alle relazioni sociali, per questo motivo prendono il nome di «sistemi esperti», dove «esperti» indica l’expertise nel loro ambito specifico, detto micromondo. Tuttavia un software abilissimo nella risoluzione dei quesiti della scala WAIS, non saprebbe fare nient’altro al di fuori della sua competenza. Sarebbe intelligentissimo nel suo micromondo, ma non al di fuori di esso. Secondo Binet il comportamento intelligente si contraddistingue per la tendenza a mantenere la direzione presa senza lasciarsi distrarre o fuorviare; la capacità di adattare i mezzi agli scopi; la capacità di autocritica e l’insoddisfazione per le soluzioni parziali che non chiariscono realmente il problema. Nessun sistema esperto è in grado di adattarsi ad un compito che esula dal proprio micromondo; nessun sistema esperto è capace di autocritica, tantomeno di insoddisfazione. Possiamo quindi parlare di intelligenza?
Il frutto dell’evoluzione
Era giusto ciò che affermava Searle a proposito della semantica: un individuo cosciente, per essere definito tale, deve necessariamente essere capace di autoconsapevolezza. La comunicazione non si limita all’unione meccanica di un insieme di simboli, non può prescindere dalla comprensione dei significati. Tuttavia coscienza ed autocoscienza sono conseguenze di un lungo processo evolutivo che ha portato il substrato degli organismi ad interconnettersi sempre di più fino ad arrivare al moderno cervello umano. In quest’ottica, ciò che differisce tra un umano ed una macchina, è la quantità di connessioni tra gli elementi che costituiscono il «substrato pensante» (Tononi, 2008). Per ovvi motivi, le macchine che oggi l’uomo è in grado di produrre, non contengono la grande quantità di unità neurali che contiene il cervello umano, tantomeno il gran numero di connessioni tra loro. Questa mancanza di integrazione tra unità, rende le macchine inconsapevoli, ma non per questo non intelligenti, a patto che «intelligenza» venga intesa secondo la definizione di IA debole. Sono intelligenti per ciò che compete loro, ma non per altro. Non è da escludere che in futuro diventino sempre più intelligenti e sempre più consapevoli, ma questo vorrebbe dire ricreare l’intera struttura cerebrale umana che nel nostro caso si è sviluppata in seguito a migliaia di anni di evoluzione.
Fonte
- Oppy, G., & Dowe, D. (2003). The turing test.
Stanford Encyclopedia of Philosophy - Tononi, G. (2008). Consciousness as integrated information: a provisional manifesto.
The Biological Bulletin