Tra gli anni Cinquanta e Settanta l’incontro tra sei diverse discipline, guidate dall’idea che il cervello funzionasse come un computer, motivò la fondazione della scienza cognitiva. I vantaggi di un approccio interdisciplinare sembravano evidenti, tuttavia, presto, la coesione tra le discipline è sparita, al punto che oggi si preferisce parlare di scienze cognitive, al plurale. Comunque, i progressi della psicologia e dell’intelligenza artificiale continuano ad animare il dibattito sullo studio della mente.
IN BREVE
Indice
LE ORIGINI DELLE SCIENZE COGNITIVE: IL CERVELLO È UNA MACCHINA CHE COMPUTA
Ciò che oggi chiamiamo scienze cognitive, ovvero un insieme di discipline, nel 1979 nasceva come scienza cognitiva. Volutamente denominata al singolare dai suoi fondatori, aveva l’obiettivo di combinare orientamenti diversi per lo studio scientifico e multidisciplinare del cervello. Per di più, ognuna delle discipline costituenti la nuova scienza faceva riferimento a degli assunti di base condivisi:
- la mente lavora come un computer
- la cognizione agisce sulle rappresentazioni della conoscenza
I computer ricevono delle informazioni in input e le elaborano in vario modo, per esempio immagazzinandole in memoria o usandole per risolvere problemi, un po’ come il nostro cervello. Secondo le scienze cognitive si tratta di un processo computazionale, cioè un’operazione su dei simboli guidata da precise istruzioni. Perché il confronto cervello-computer? Negli anni ’50 e ’60, il computer era il meccanismo fisico più simile al cervello umano. Inoltre:
- nel 1947 N. Wiener introduceva la cibernetica, dimostrando come il linguaggio, il controllo, l’apprendimento ecc. fossero facoltà sia degli umani, sia delle macchine
- nel 1956 J. McCarthy e M. Minsky parlavano di intelligenza artificiale, cioè progettazione di macchine in grado di risolvere i problemi affrontati dagli umani
- nel 1957 H. Simon simulava la risoluzione di problemi umana nella macchina
Questi eventi, di per sé fondamentali per la scienza dei computer, determinarono subito l’entusiasmo degli scienziati che, da lì a breve, avrebbero dato un contributo alla genesi della scienza cognitiva, a partire dagli psicologi.
1956: la rivoluzione cognitiva della psicologia applicata allo studio della mente
Nel 1913 l’articolo “Psychology as the Behaviorist Views it“, di J. Watson, sancì la nascita del comportamentismo. La nuova corrente, dominante negli Stati Uniti, trasformò la psicologia nello studio degli stimoli e delle risposte degli organismi. In altre parole, l’indagine riguardava il comportamento, mentre gli eventi mentali erano ignorati. Negli anni ’50 un numero crescente di psicologi, influenzati dai colleghi europei e dall’informatica, si rese conto che osservare era tanto importante quanto spiegare. Era inverosimile che le persone rispondessero passivamente agli stimoli ambientali, quindi era necessario aprire la “scatola nera” che i comportamentisti avevano ignorato tra lo stimolo e la risposta di un organismo per capire le ragioni di un’azione. La nuova idea dominante, che determinò la rivoluzione cognitiva, era che il cervello lavorasse come un computer. Due pubblicazioni del 1956 ne erano dimostrazione:
- A Study of Thinking (J. Bruner, J. Goodenough e G. Austin), sulle strategie cognitive umane
- The magical number seven, plus or minus two (G. Miller), sui limiti delle capacità umane di processare e ricordare le informazioni
Divenne evidente la natura computazionale del sistema mente-cervello, costituito dalle rappresentazioni della conoscenza e dai processi che consentono alle persone di ricordarle, di trasformarle e di associarle ad altre rappresentazioni.
1957: la linguistica di Chomsky, altro passo verso una scienza multidisciplinare
Come la psicologia, negli anni ’50 la linguistica attraversava una fase di rinnovamento portata avanti da Noam Chomsky. Chomsky non credeva che l’acquisizione del linguaggio fosse un semplice apprendimento, come ipotizzato dai comportamentisti. Pensava, piuttosto, che esistesse un dispositivo biologico innato per la sua acquisizione, grazie al quale i bambini imparano a parlare in breve tempo. Il cervello produrrebbe le conoscenze a priori sulle regole e sui principi comuni a tutte le lingue – grammatica universale -, che i bambini scoprono e imparano comunicando precocemente con l’ambiente. I parametri della grammatica universale, seppur innati e universali, vengono determinati qualitativamente dal contesto di appartenenza: ecco perché impariamo lingue diverse a partire da un dispositivo biologico comune. Peraltro, il dispositivo conferirebbe agli umani una creatività tale da essere in grado di enunciare e comprendere combinazioni di frasi mai sentite prima – grammatica trasformazionale. Come spiegato in Syntactic Structures (1957), questa capacità discende direttamente dalle regole innate e universali del linguaggio, e non dalla conoscenza di parole. La teoria ha un’impostazione computazionale: il linguaggio è governato da regole che agiscono su simboli e segni, e non può essere ridotto a semplice apprendimento. Queste considerazioni rendevano la linguistica una disciplina di primaria importanza nella scienza cognitiva, al pari della psicologia e dell’informatica.
1977: il giornale, la società di scienza cognitiva e le sei discipline
Sulla scia dell’entusiasmo creato dall’incontro delle tre discipline, nel 1977 uno psicologo, A. Collins, e due esperti di intelligenza artificiale, R. Schank e G. Charniak, fondarono la rivista Cognitive Science. Risale, invece, a due anni dopo la nascita della società di Scienza Cognitiva, che includeva pure filosofia, antropologia e neuroscienze. Il ruolo delle prime due era marginale. La filosofia è stata stimolo di riflessioni, sul ragionamento morale ad esempio, mentre l’antropologia proponeva un modello di cultura – un sistema di significati e conoscenze che esiste nelle persone, piuttosto che al di fuori di esse – particolarmente congeniale alla visione della Società. Le neuroscienze cognitive, infine, potevano correlare l’elaborazione delle informazioni ad un substrato anatomo-funzionale – ferma restando la volontà di studiare la cognizione su un piano computazionale piuttosto che biologico. Come è evidente, il punto di forza della nuova scienza era la capacità di operare su diversi livelli esplicativi (Marr, 1982):
- Livello computazionale, tipico della filosofia, dell’antropologia e della linguistica. La loro domanda è: quale informazione è elaborata? Perché?
- Livello algoritmico. Qui operano la psicologia e l’informatica, che si chiedono come sono elaborate e rappresentate le informazioni.
- Livello implementativo. È il livello delle neuroscienze cognitive, le quali individuano il correlato fisico delle funzioni computazionali.
Sfortunatamente, l’attività di filosofi e antropologi è quasi scomparsa sulla rivista dopo il 2000 (rispettivamente 3% e 1% delle affiliazioni totali), mentre quella dei neuroscienziati è molto bassa (7%). All’opposto, le pubblicazioni in psicologia sono più della metà del totale.
SCIENZE COGNITIVE, STUDIO DELLE RAPPRESENTAZIONI MENTALI E DELLE FUNZIONI COGNITIVE
Il principale interesse della scienza cognitiva è, quindi, la cognizione di un sistema pensante, il quale:
- è un elaboratore di informazioni
- apprende dall’esperienza
- monitora il suo comportamento
- comunica con altri sistemi
Se il riferimento è a un sistema pensante, la cognizione può essere studiato tanto nell’uomo, quanto nella macchina, soprattutto alla luce del ruolo dell’informatica nella scienza cognitiva. Approfondire dettagliatamente le differenze fra queste due entità richiederebbe pagine e pagine di spiegazioni. Qui, basti considerare che gli umani sono geneticamente predisposti a pensare, risolvere problemi, prendere decisioni, pianificare ecc., mentre le macchine possono soltanto se programmate e addestrate a farlo. Per le scienze cognitive è fondamentale poter studiare la cognizione con l’ausilio dell’intelligenza artificiale, poiché si suppone che in questo modo possano essere scoperti nuovi meccanismi alla base del funzionamento mentale umano e perché quest’ultimo è approssimato al funzionamento di un computer. Questi aspetti, seppur ancora importanti, sono stati al centro delle scienze cognitive soprattutto fino agli anni ’90. Successivamente sono emerse nuove teorie che hanno messo in discussione la centralità della computazione, così come il presunto riduzionismo della scienza cognitiva, che ha trascurato il ruolo dei fattori biologici, affettivi e culturali. Approfondiremo in seguito questi sviluppi: prima di ciò al centro dell’indagine della scienza cognitiva c’erano le rappresentazioni che gli umani hanno del mondo e i processi cognitivi che le elaborano.
Come capire la mente: le rappresentazioni del mondo
Il filosofo P. Thagard, in una pubblicazione del 2005, afferma che, nell’ottica delle scienze cognitive, il pensiero può essere meglio compreso in termini di rappresentazioni della conoscenza e di processi cognitivi – computazionali – che le elaborano. Rappresentazione della conoscenza, quindi del mondo, è un concetto articolato:
- è un elemento che sta per qualcos’altro. A questo proposito, occorre distinguere tra represented world e representing world (Palmer, 1978): il secondo rappresenta mentalmente alcuni elementi del primo, fisicamente percepito mediante i sensi
- possiede regole di rappresentazione. Secondo isomorfismo, quando ogni elemento dell’oggetto percepito è mappato nella rappresentazione; secondo omomorfismo, quando più elementi dell’oggetto sono mappati in un’unica componente nella rappresentazione. In genere, prevale la regola dell’omomorfismo e, dunque, diverse informazioni vanno perse.
- richiede processi che usino le informazioni nella rappresentazione, così come fa il computer con un set di dati
Le rappresentazioni analogiche sono strutturali, poiché si tratta di effettive immagini, mentre quelle simboliche si basano sulle convenzioni che associano i concetti ai significati (per esempio, i numeri). Peraltro, ogni simbolo fa parte di una più ampia rete, la rappresentazione distribuita, che è funzionale alla rappresentazione di più concetti. È stato specificato che le rappresentazioni richiedono dei processi. Ciò vuol dire che, per essere funzionali all’agire umano, devono essere sottoposte all’elaborazione dei processi cognitivi.
I processi cognitivi manipolano la conoscenza
I processi cognitivi superiori costituiscono quei meccanismi di calcolo ed elaborazione, mutuati dall’informatica, che lavorano sulle rappresentazioni. Per usare la definizione dell’American Psychological Association (APA), i processi cognitivi sono le funzioni responsabili dell’acquisizione, dell’immagazzinamento, dell’interpretazione, della trasformazione e della manipolazione della conoscenza. Storicamente, gli aspetti relativi all’apprendimento delle informazioni sono stati trascurati dalle scienze cognitive: alcuni hanno criticato questa tendenza, altri l’hanno giustificata come scelta di allontanarsi in maniera netta dalla visione comportamentista in psicologia. I campi più studiati, invece, sono stati quelli della pianificazione, del pensiero e del problem solving. La pianificazione, o planning, afferisce al dominio delle funzioni esecutive. È l’abilità di raggiungere un obiettivo attraverso una serie di mosse o attraverso il minor numero possibile di mosse – come specificato da alcune definizioni. Il principale test usato per la valutazione della pianificazione è la Torre di Londra. Chi lo svolge ha di fronte a sé tre bastoncini e tre palline di diverso colore, le quali vanno spostate per costruire, di volta in volta, la specifica configurazione richiesta dallo sperimentatore. Tuttavia, ci sono delle regole che mettono alla prova l’abilità di pianificazione. Per esempio, non è consentito muovere più di una pallina per volta ed è necessario raggiungere la configurazione richiesta entro un certo numero di mosse.
Il pensiero
Il pensiero è una componente dell’intelligenza e, soprattutto, è un processo interno. Per questo il comportamentismo rifiuterebbe di indagarlo e lo catalogherebbe come produzione verbale con sé stessi. È vero che pensare implica l’uso del linguaggio – ma anche di immagini -, così come è vero che si tratta di un’attività non osservabile. Tuttavia, possiamo fare affidamento su dei dati comportamentali che ci dicono qualcosa sui pensieri e sugli stati interni. Per pensare servono i concetti. Grazie ad essi, siamo in grado di definire, sulla base degli attributi comuni, quali oggetti appartengono o meno a una categoria. Una classificazione, questa, che avviene grazie all’esperienza – concetti naturali – o grazie a conoscenze avanzate conseguite nello studio e nel lavoro – concetti formali. Una particolare proprietà del pensiero, il ragionamento, permette di manipolare e combinare i concetti. A partire dal ragionamento deduttivo, ovvero quando traiamo conclusioni da alcune regole generali. Per farlo, secondo Johnson-Laird e colleghi (1992) utilizziamo dei modelli mentali, il che vale a dire che rappresentiamo spazialmente i fatti nella nostra mente. Per esempio, se ci viene chiesto di valutare chi sia più grande tra A e B, quando sappiamo che A è minore di C, e B è maggiore di C, costruiamo una linea mentale in cui posizionare i tre elementi in ordine. All’opposto, il ragionamento induttivo ci aiuta a trovare regole generali partendo da fatti particolari. Nella vita quotidiana risulta ingannevole per due ragioni:
- non consideriamo gruppi di confronto. Per esempio, un farmaco è efficace solo se produce effetti migliori in chi lo prende rispetto a chi non lo prende.
- consideriamo solo le prove che confermano un’ipotesi (tendenza alla conferma)
Lo scopo finale del pensiero è risolvere problemi
Secondo le scienze cognitive i fini del pensiero sono la risoluzione dei problemi quotidiani e i processi decisionali, nelle situazioni in cui è chiaro l’obiettivo, ma non il piano per raggiungerlo. Per cambiare questo stato, le persone hanno a disposizione varie azioni – operatori, secondo Newell e Simon. Alcune implicano maggiori costi, altre sono più semplici da perseguire, ma la soluzione è possibile solo quando si sceglie una sequenza di operatori – algoritmo – che permette di avanzare verso l’obiettivo. Un’altra via, che potrebbe essere definita vera e propria scorciatoia, è rappresentata dalle euristiche. Le euristiche sono utili nella ricerca di una possibile soluzione, mettendo in risalto le strategie da seguire e i dettagli rilevanti. Un esempio di euristica è l’analisi mezzi-fini, la quale, secondo Newell e Simon (1972), può risolvere qualsiasi problema. Essa prevede:
- confronto preliminare fra lo stato attuale e lo stato finale (obiettivo). Se non ci sono differenze il problema non esiste, altrimenti occorre proseguire
- individuare le azioni che riducano questa differenza
- se non è possibile procedere, bisogna identificare un sotto-obiettivo per l’applicazione dell’azione scelta. Un’analisi mezzi fini consentirà di agire o di abbandonare il tentativo
- Ripetere il procedimento per ridurre la distanza dallo stato finale
In pratica, si tratta di cercare costantemente di ridurre la distanza fra lo stato attuale e quello finale, creando delle sotto-mete quando compare un problema difficile da aggirare. Ciò è tanto più possibile se la persona possiede delle buone abilità di pianificazione, nonché esperienze che le consentano di conoscere la portata e le conseguenze di ogni azione.
ANNI ’80-’90: LE CRITICHE AL CONFRONTO CERVELLO-COMPUTER
Nonostante il suo campo sia ormai dominato dalla psicologia cognitiva, alcuni (per esempio Gentner, 2019) ritengono che abbia ancora senso parlare di scienze cognitive, in virtù dei benefici che l’unione fra psicologia, intelligenza artificiale e linguistica fornisce. La scienza cognitiva, probabilmente a causa delle molte discipline coinvolte, non ha mai avuto un framework teorico condiviso, se non l’assunzione che la mente lavori secondo processi computazionali. Questo aspetto potrebbe aver favorito l’insoddisfazione di diversi ricercatori. G. Miller sostiene che il programma di una nuova scienza multidisciplinare ha iniziato a vacillare pochi anni dopo la sua fondazione, e già nel 2003 pensava che fosse meglio parlare di scienze cognitive, al plurale. Altra causa di insoddisfazione è stata la scarsa considerazione per i fattori culturali, affettivi e ambientali, nonché storici, nello studio della cognizione. Questo, nell’insieme, è stato visto come un riduzionismo deliberato e ha portato all’emergenza di nuovi approcci e metodi, alcuni dei quali descritti di seguito. Interessantemente, tra questi vi sono stati approcci che hanno messo in discussione le visioni centrali delle scienze cognitive, relative, cioè, alle rappresentazioni e alla computazione. Per questa ragione, già negli anni ’80 e ’90, era frequente leggere che le scienze cognitive non erano ancora una scienza ben definita, o che fosse più opportuno definirle una semplice prospettiva teorica.
L’elaborazione in parallelo differenzia il cervello dal computer
Paradossalmente, le scienze cognitive mettono in dubbio il loro punto forte nel 1987, quando Rumelhart e McClelland pubblicano “Parallel Distributed Processing“. Un computer può essere programmato per fare qualsiasi cosa; tuttavia, è certo che svolgerà il compito in maniera diversa dal cervello. Consideriamo un compito di riconoscimento visivo di oggetti. Rispetto a un umano, il computer impiega più tempo a risolvere il compito perché è un elaboratore seriale, il che vale a dire che lavora un passo alla volta. Se il cervello operasse in questo modo, saremmo lentissimi in ogni attività. Secondo gli autori, invece, un cervello costituito da miliardi di neuroni è naturalmente in grado di dividere ogni procedura complessa in molteplici sotto-procedure, ognuna delle quali elaborata da un circuito di neuroni, detto modulo. Il lavoro congiunto di molti moduli rende il cervello un elaboratore parallelo. Ciò è evidente in molte situazioni quotidiane, per esempio quando afferriamo un oggetto. È un processo solo apparentemente semplice: dobbiamo considerare la nostra postura, la posizione dell’oggetto, la sua forma, il suo peso ecc. e, sulla base di questo, effettuare un movimento opportuno. Grazie all’elaborazione in parallelo, queste operazioni – in parte inconsapevoli – sono fluide e rapide. Questa teoria ha determinato la revisione del concetto di rappresentazione della conoscenza. L’idea dominante nelle scienze cognitive era che le rappresentazioni fossero copie della realtà, più o meno precise, immagazzinate nella memoria e manipolate dalla cognizione. L’idea di un cervello che elabora in parallelo, invece, implica che nessuna rappresentazione sia immagazzinata, bensì che sia fissata la forza delle connessioni fra neuroni in grado di ricreare la rappresentazione.
Il connessionismo riconsidera il ruolo del cervello e delle reti neurali
Lo sviluppo della teoria dell’elaborazione in parallelo è stato influenzato dal Connessionismo, una nuova corrente delle scienze cognitive introdotta da Feldman e
Ballar nel 1982. Il loro contributo è stato decisivo nel riportare il cervello al centro dell’indagine delle scienze cognitive, dal momento che l’elaborazione seriale rendeva il computer inadatto a spiegare la cognizione umana. Le reti neurali (D. Hebb, 1949), invece, si prestavano meglio a questo difficile compito. Esse costituiscono circuiti di neuroni, ma i ricercatori hanno sviluppato modelli artificiali in grado di riprodurre i fenomeni cerebrali, a partire dalle proprietà elementari dei neuroni stessi. Una rete neurale artificiale consiste di:
- nodi, o unità, assimilabili alle cellule del sistema nervoso
- connessioni tra nodi, eccitatorie e inibitorie, assimilabili alle sinapsi nervose
- tre livelli di elaborazione: input, hidden e output
Al livello di input appartengono i nodi che ricevono le informazioni dall’esterno; i livelli hidden apprendono le relazioni complesse tra i dati; al livello di ouput quelli che producono l’esito finale. Chiaramente, gli psicologi che scrivono i programmi per la simulazione delle reti cerebrali devono addestrare il modello artificiale ad apprendere. Ciò avviene monitorando l’output del modello, confrontandolo con il risultato desiderato e fornendo un segnale di correzione, noto come Backpropagation, qualora l’esito sia sbagliato. In questo modo, vengono modificate le connessioni tra le unità. In sintesi, per il connessionismo il computer è utile nella misura in cui consente di creare programmi artificiali in grado di simulare il funzionamento del sistema nervoso.
Un nuovo legame tra la cognizione e l’ambiente
A partire da una visione critica del concetto di rappresentazione e, in generale, della teoria simbolica della scienza cognitiva classica, si sono sviluppati ulteriori correnti “ribelli”. Per usare le parole di Gentner, i nuovi approcci sembravano richiamare l’attenzione sugli aspetti del funzionamento mentale trascurati fino a quel momento. Partiamo dalla situated cognition, emersa sul finire degli anni ’80. Essa sottolinea come la cognizione non possa prescindere dal contesto in cui una persona vive. Prova di questo sarebbe la natura interattiva dell’intelligenza, la quale, in parte, dipende dagli strumenti forniti dall’ambiente. Resnick (1995) afferma che in questo un ruolo fondamentale è svolto dalle altre persone: ciò che ci rende competenti non è solo conoscere e saper utilizzare degli strumenti, ma anche la capacità di coordinarci con gli altri e comportarci in modi opportuni. Anche la distributed cognition muove da una rivalutazione del contesto ambientale, ma evidenzia particolarmente che molta della conoscenza richiesta nelle situazioni quotidiane si trova al di fuori della mente: il comportamento, quindi, è l’effetto della combinazione tra le informazioni presenti nella nostra mente e quelle che esistono al di fuori di essa (nelle persone, nelle relazioni ecc.). Infine, l’enactive cognition. Questo modello rifiuta la centralità attribuita alle rappresentazioni – secondo alcuni rifiuterebbe totalmente questo concetto -, sostenendo che esse non hanno un ruolo in tutti i processi mentali. Gli enattivisti, piuttosto, sottolineano il ruolo primario della percezione e delle influenze che questa riceve dall’esperienza e dall’integrazione sensorimotoria.
Embodied cognition, una cognizione incarnata
Negli anni ’90 le teorie anti-rappresentazionali trovano un crescente consenso, anche se uno dei nuovi approcci, l’embodiment cognition, sembra non chiudersi totalmente alla scienza cognitiva classica. Sotto l’influenza della fenomenologia, del pragmatismo e della psicologia ecologica, gli assunti sono che:
- primariamente rilevante per la cognizione è la percezione
- la percezione non ha bisogno di rappresentazioni
- la percezione non produce rappresentazioni interne degli oggetti, ma informazioni utili all’azione (affordances)
In pratica, l’embodied cognition evidenzia la natura pragmatica delle rappresentazioni, essendo queste orientate all’azione e all’anticipazione delle conseguenze di un movimento. Quindi, non le nega e riconosce che sono il materiale su cui il pensiero lavora. D’altra parte, è necessario precisare che una parte degli studiosi che abbracciano l’embodied cognition – così come in altri approcci critici verso la teoria rappresentazionale – rifiuta a tutti gli effetti il concetto di rappresentazione, ritenendo la cognizione non simbolica e incarnata. Un’alternativa alla teoria classica, emersa nel contesto dell’embodied cognition, è la Perceptual Symbol Systems Theory (Barsalou, 1999). Ipotizza che i pattern di attivazione prodotti dalla percezione, nelle aree sensorimotorie, siano immagazzinati nelle aree associative superiori: è così che si riattiverebbero in un secondo momento le caratteristiche dello stimolo – e la sua rappresentazione -, non più presente nell’ambiente. Da qui è evidente come i processi cognitivi superiori coinvolgano le informazioni sensoriali inferiori.
Fonte
- Psychology in Cognitive Science: 1978–2038
Topics in Cognitive Science - The cognitive revolution: a historical perspective
Trends in Cognitive Science - What happened to cognitive science?
Nature Human Behaviour