I robot umanoidi sono artefatti meccanici sempre più simili agli umani, sia fisicamente che cognitivamente. Eppure le differenze con gli uomini sono ancora molte, nonostante di questi tempi il confine tra realtà e utopia si stia via via assottigliando. Ad oggi vi sono molti prototipi differenti, ognuno con le proprie peculiarità; alcuni sono persino in grado di socializzare ed esprimere emozioni. In cosa dunque continuano a distinguersi da noi?
IN BREVE
Indice
LA CONOSCENZA NELLA MENTE UMANA E NEI ROBOT UMANOIDI
Come suggerisce il nome, i robot umanoidi sono macchine che come struttura fisica e come funzionamento ricordano, sempre meno vagamente, gli umani. La loro storia inizia molto tempo fa, sono meno recenti di quanto si pensi e di questi tempi stanno diventando sempre più simili a noi, non solo nell’aspetto esteriore ma anche nelle funzioni cognitive, nelle abilità relazionali e negli atteggiamenti. Per capire cosa li rende simili all’uomo dal punto di vista mentale e cosa invece li distingue, è necessario innanzitutto comprendere il funzionamento di entrambi, umani e macchine. Secondo molti teorici e ricercatori, nella mente umana le cosiddette «rappresentazioni» sono la base sulla quale si fonda la conoscenza, intesa come insieme di nozioni apprese e coerenti. Nel loro insieme vanno a costituire il codice con il quale viene immagazzinata l’informazione proveniente dall’interno o dall’esterno. Si possono presentare in quattro formati:
- Immagini mentali;
- Rappresentazioni modalità-specifiche di tipo percettivo-sensoriale;
- Simboli amodali, ovvero tutte quelle rappresentazioni che non sono legate all’immagine corporeo-sensoriale che si ha di esse: 1. Rete semantica: ad esempio la rete di concetti legati a «macchina» (viaggio, sedile, ruota, motore…), a loro volta legati ad altri concetti (viaggio = Brasile, bandiera…; sedile = pelle, sedia, relax…); 2. «Macchina» come lista di componenti (ruote + motore + sedili…); 3. «Macchina» come lista organizzata (4 ruote + 1 motore…);
- Schemi statistici. In questo caso l’informazione viene rappresentata come fosse un vettore di simboli binari. Rappresentazioni simili hanno vettori simili, ad esempio tutte le «macchine» hanno alcune componenti vettoriali identiche (1001011). Le poche che differiscono, identificano le caratteristiche che rendono una rappresentazione diversa dall’altre (10010110111 = il colore e la marca dell’auto).
L’organizzazione della conoscenza umana
Di conseguenza, l’uomo, man mano che le raccoglie, distribuisce le rappresentazioni in «categorie» sulla base di regole e caratteristiche comuni. Ad esempio le «mele» sono tali quando corrispondo all’idea generale di «mela». Questo tipo di strutturazione richiede il rispetto di alcune regole: una mela, per essere una mela, deve necessariamente avere una determinata forma, il picciolo, un certo sapore…
- Le conoscenze «contestuali» sono organizzate in «schemi» detti script, ovvero copioni, modi di agire e interagire in determinati contesti. Ad esempio al ristorante è tipica un’interazione come la seguente: «Buongiorno, siamo in tre, possiamo accomodarci?»; [Il cameriere accompagna i clienti al tavolo e porta il menù]; «Cosa vi porto da bere?»… Leggendo queste poche righe è subito possibile ricollegare la scena al relativo contesto, anche senza che questo ci venga detto a priori: ogni contesto ha i suoi script, ne possediamo una grande varietà. Possono avere vari livelli di generalità e possono essere interconnessi. Dal punto di vista clinico si pensi agli internal working model descritti da Bowlby a proposito della Teoria dell’Attaccamento: si tratta di schemi relazionali appresi sulla base delle prime interazioni con il caregiver. Il ragionamento è pressoché lo stesso;
- Le categorie invece sono organizzate in tassonomie. Classico è l’esempio del regno animale con tutti i suoi sotto-domini, a loro volta suddivisi in ulteriori categorie. Essere vivente-quadrupede-cane-labrador: ogni nodo dello schema è a sua volta identificato dalle rappresentazioni e dai simboli descritti nel paragrafo precedente.
Simulare il ragionamento umano con i computer
Con il concetto di «intelligenza artificiale» (IA) iniziamo ad entrare nel vivo della questione, dopotutto è proprio l’IA il mezzo attraverso il quale i robot umanoidi riescono ad emulare il comportamento umano. Furono i precursori logico-matematici delle IA che permisero per la prima volta di formalizzare i ragionamenti umani. Casi esemplari erano quelli della logica proposizionale proposta da Boole nel 1852 e dei classici sillogismi aristotelici come «se A è vero e B è vero, allora C è vera». La mente dei computer funzionava in modo meccanico sulla base di queste regole logiche fino a quando Newell e Simon cercarono di simulare i ragionamenti umani con i computer tramite la manipolazione di simboli, gli stessi simboli descritti nei paragrafi precedenti. Secondo la loro Physical Symbol System Hypothesis, un sistema fisico simbolico ha i mezzi necessari e sufficienti per essere intelligente.
Come pensa un’intelligenza artificiale
Dunque, proprio come noi, i robot umanoidi pensano utilizzando simboli e reti semantiche, ovvero strutture costituite da nodi e frecce. I primi rappresentano eventi, parole ed informazioni, mentre le seconde indicano le relazioni tra gli elementi. Possono concettualizzare frasi e conoscenze, e possono aiutare il software a dare delle risposte precise all’utente. «Cos’è un {orso}?»: {orso} = «animale dal pelo bruno o bianco». Un’altra modalità di concettualizzazione utilizzata dalle IA è data dai cosiddetti frame secondo cui «stanza = [(pareti) + (soffitto)]». Ciascun frame tra parentesi tonde a sua volta può contenere altre informazioni, ad esempio una relazione con un altro frame oppure un’indicazione (parete destra o parete sinistra). Si tratta comunque di descrittori statici. Gli scripts, proprio come i nostri, sono invece frame dinamici che permettono di descrivere sequenze di azioni, ad esempio la sequenza di interazioni all’interno di una conversazione: guardare il menù, chiamare il cameriere, ordinare, mangiare, pagare, uscire. Gli scripts permettono alla macchina di rispondere a domande situazionali come «perché un uomo ha consegnato un paio di menù a due persone sedute ad un tavolo?», ma ovviamente si parla di supposizioni fondate solo sulle informazioni contenute nel testo. La macchina può dedurre che il cliente sta andando via senza pagare se nello script è indicato il pagamento alla fine del pasto, ma se le si chiede perché si da la mancia ai camerieri, non è in grado di rispondere, a meno che qualcuno non lo spieghi nel testo.
Differenze con la mente umana
Nella mente di ciascuno esistono un’infinità di schemi, script e reti semantiche che rendono la persona non solo intelligente, ma anche conscia; quelli delle IA generalmente sono pochi e troppo poco interconnessi per rendere i robot umanoidi davvero consci e spontanei. Difatti essi ragionano sulla base di micromondi, ovvero mondi più semplici rispetto al mondo reale, con meno elementi e quindi azioni limitate. Per questo motivo si parla di sistemi con conoscenze ultra-specializzate, detti «sistemi esperti»: le loro conoscenze generali sono infime rispetto a quelle umane, ma nel loro specifico settore (il micromondo) sono più competenti rispetto a molti uomini. Un software in grado di giocare a scacchi meglio del campione mondiale, saprà fare solo quello. Se gli si chiedesse di giocare a dama o a Cluedo non saprebbe farlo. Il robot umanoide Sophia è forse una delle macchine sociali più evolute del secolo, ma se le si chiedesse di fare un salto, non sarebbe in grado. Allo contrario, Atlas della Boston Dynamics sarebbe in grado di fare acrobazie e salti mortali, ma probabilmente non saprebbe rapportarsi adeguatamente con gli esseri umani.
Google Duplex nel 2018 ha creato una IA in grado di interagire naturalmente con l’interlocutore durante, ad esempio, la prenotazione di un tavolo al ristorante. Le è stato insegnato ad utilizzare toni appropriati, ad adoperare un comportamento goal directed, a seguire le regole delle interruzioni, del timing e degli intercalari. Tuttavia anche in questo caso tutto ciò è possibile solo in un ambito limitato. Non è difficile immaginare un robot-umanoide-cameriere, ma le sue conversazioni non sarebbero generalizzabili a tutti i tipi di dialogo. Alcune IA sono ad esempio in grado di scrivere testi, riassumerli, leggerli o tradurli, ma nessuna è davvero in grado di capire ciò che scrive o legge. Secondo l’Integrated Information Theory di Giulio Tononi, i sistemi modulari non possono essere definiti coscienti proprio in quanto modulari e frammentati. La coscienza per definizione è frutto dell’interazione tra circuiti ed aree cerebrali, cosa che ancora manca nei robot umanoidi odierni.
I ROBOT UMANOIDI ATTUALI
Il piccolo iCub è probabilmente il più famoso tra i robot umanoidi italiani. Ha radici in un principio precedente a quello della coscienza autonoma, ovvero l’idea che la robotica potesse diventare uno strumento per comprendere meglio l’uomo. La verità è che non è possibile descrivere le nostre capacità cognitive in modo chiuso, dal momento che esse si sviluppano attraverso l’interazione con gli altri e con il mondo. Per questo motivo il principio su cui si basa iCub è quello dello sviluppo. L’individuo adulto equivale all’edificio finito, ma prima di questo vi erano tante impalcature ormai non più visibili, senza le quali non sarebbe stato possibile arrivare al risultato. L’idea di iCub (e Babybot prima di lui) è quella di realizzare un «bambino impalcato» su cui poter poi ricostruire tramite apprendimento l’intera struttura cognitiva, in modo da poterla comprendere tramite l’ingegneria inversa.
Babybot (1998) aveva occhi, orecchie, un braccio ed una mano sensibile. Possedeva quindi vista, udito e tatto e permise alla fine degli anni Novanta di comprendere alcuni modelli di comportamento, di percezione tattile, uditiva e visiva. Il robot era già in grado di imparare a modellare le conseguenze delle proprie azioni sulla base delle proprie conoscenze. Seguì James (2002) e subito dopo Robotcub (2004), la prima piattaforma robotica per studiare l’evoluzione della cognizione, con l’idea di comprendere uno specifico sistema intelligente, il bambino. Ci si chiese quali fossero le caratteristiche minime della macchina affinché fosse in grado poi di sviluppare quella che chiamiamo cognizione. Le telecamere dovevano essere necessariamente negli occhi, il robot doveva essere in grado di muovere le mani, la testa e toccare gli oggetti, la fisicità doveva essere simile a quella del bambino; il robottino infine doveva essere in grado di esprimere alcune emozioni e di muovere le gambe. L’idea era quella di creare una piattaforma il più umana possibile, in modo tale da rendere gli esperimenti «realistici».
Cosa manca nei robot?
Ad oggi altri robot umanoidi come R1 desiderano applicare agli spazi pubblici le conoscenze ottenute in laboratorio, con mansioni di supporto. Ancora tuttavia non è chiaro come funzioni l’essere umano, per questo motivo finiamo per ottenere dei robot incredibilmente bravi ed esperti in alcune abilità, ma del tutto incompetenti in altre, soprattutto quelle sociali, fatta eccezione per Sophia, probabilmente il robot umanoide più avanzato da questo punto di vista. Secondo il Moravec’s Paradox è relativamente più semplice riprodurre su un computer comportamenti che ai nostri occhi sembrano particolarmente avanzati rispetto a quelli che troviamo ogni giorno in un bambino. Spesso negli umanoidi mancano le core abilities di comprensione, anticipazione e adattamento che a noi sembrano assolutamente intuitive. La tecnologia attuale è essenzialmente reattiva, attende solo i nostri comandi per agire. L’ambizione è quella di riuscire ad oltrepassare questo limite al fine di ottenere una tecnologia collaborativa.
Perché la forma umanoide?
Perché per studiare l’uomo dovrebbe essere necessario proprio il robot? Perché non utilizzare metodi tradizionali per comprendere l’interazione tra individui? Tra i metodi tradizionali per studiare l’interazione troviamo: 1. Studi osservazionali: naturali, ma senza controllo; 2. Approccio duale: controllo dello stimolo, ma nessun controllo sulla risposta del soggetto; 3. Realtà virtuale: permette di uscire dalla dimensione passiva, ma trascina la persona al di fuori della naturalezza. Il robot garantisce la possibilità di ottenere tutti e tre i vantaggi: possiamo decidere come si muove, come percepisce e come reagisce. La forma umanoide non è un caso. Il mondo è ricco di oggetti pensati per l’utilizzo umano, il fatto che il robot sia umanoide gli consente di utilizzare gli stessi oggetti; allo stesso modo, il fatto che gli organi di senso siano posizionati nei luoghi umani rende più facile la comunicazione, difatti le azioni ed il movimento biologico comunicano molto più rispetto alle parole (si pensi ai neuroni specchio).
Le azioni sono una forma di comunicazione: passare una mela può essere un gesto gentile oppure stizzito ed aggressivo, perciò è importante che ogni arto sia posizionato nel punto giusto. Vi sono aree cerebrali che decodificano proprio questi significati di risonanza motoria. La forma del corpo modifica anche il modo con cui ci rapportiamo con il mondo, per questa ragione non è possibile ricostruire un umano che non abbia una forma umana. Se le neuroscienze sono fondamentali dal punto di vista teorico, la robotica fornisce un approccio sintetico: sappiamo come dovrebbe funzionare, siamo in grado di ricostruirlo? Una volta che l’abbiamo ricostruito è molto più facile comprenderlo, essendo noi gli artefici e i controllori del comportamento.
«Quanto» umano?
Quando si parla di macchine dalla forma umana, è necessario citare il problema dell’uncanny valley (Mori, 2012). Quanto più un artefatto assomiglia all’essere umano, tanto più si crea affinità con esso; tuttavia, se la somiglianza eccede un certo livello senza raggiungere l’uguaglianza, si finisce nella cosiddetta «valle perturbante», dove un oggetto simile all’uomo, ma non abbastanza, genera una sensazione di malessere. Allo stesso modo, se il movimento è dissimile da quello biologico, si cade in un’uncanny valley ancor più profonda, l’osservazione diventa ancor più fastidiosa: si pensi alle infermiere di Silent Hill. Nella figura sottostante vediamo il professore Hiroshi Hishiguro di Osaka, famoso per aver creato un clone umanoide di sé stesso. Hishiguro in questo modo non solo è riuscito a bypassare completamente il problema dell’uncanny valley, ma ha anche reso ancor più concreta l’idea dei replicanti.
Tra i robot umanoidi giapponesi più famosi troviamo sicuramente Geminoid F, il primo automa-attore con pelle di gomma e volto di donna ad aver recitato in un film (Sayonara, 2015), ed Erika, l’anchorwoman progettata per condurre il tg del futuro. Si sottolinea che per quanto l’aspetto di questi androidi sia incredibilmente simile al nostro, «internamente» essi sono del tutto vuoti e privi di «umanità». Si tratta infatti di macchine a controllo remoto, che semplicemente eseguono ciò che viene detto loro di fare, hanno molta meno autonomia di un qualsiasi altro robot sociale, ma come involucri sono davvero ben fatti, non lo si può negare. Nel sogno di Hishiguro, il mondo del futuro sarà popolato di replicanti come il suo, la città di Neom potrebbe essere il primo passo verso questa svolta, ma prima che la visione si realizzi, è necessario dare agli androidi la nostra umanità e i valori oltre che il nostro aspetto.
L’importanza delle associazioni
Quando guardiamo qualcosa insieme ad una macchina, ciò che noi vediamo è completamente diverso rispetto a quello che vede lei. Il robot percepisce facilmente colori e immagini, ma ciò che noi vediamo in un quadro è molto più ricco grazie alle associazioni emozionali. Non ci limitiamo alla sola realtà fisica diretta. Allo stesso modo i robot umanoidi ancora non sono in grado di trasmettere le stesse intenzioni che gli uomini sono in grado di comunicare. Lo scopo è quello di rendere anche le macchine recettive e comunicative tanto quanto l’uomo, e ci si sta riuscendo. Ad esempio, per evocare i meccanismi prosociali nel robot, è stato necessario costringere i ricercatori a comprendere le proprietà attraverso le quali veniva letta un’azione gentile piuttosto che aggressiva. Non era sufficiente copiare solo la velocità, ma era necessario copiare con esattezza tutti i movimenti spazio-temporali. Così al tempo stesso è stato possibile comprendere di più del comportamento umano ed i robot sono stati implementati con delle nuove funzioni sempre più simili a quelle umane. È stato visto inoltre che i partner umani finivano addirittura per rispondere inconsciamente in maniera adeguata all’azione aggressiva, ciò significava che il comportamento era davvero ben simulato (Vannucci et al., 2018). Era anche più facile fidarsi di lui se rispettava le regolarità del moto biologico. Grazie alla modulazione dei comportamenti è sufficiente che il robot compia un’azione affinché ne trasmetta il significato. È ovviamente necessario che sappia anche comprendere oltre che comunicare. Attualmente il nostro iCub è in grado ad esempio di comprende il cognitive loading dalla dilatazione delle pupille o l’intenzionalità dell’azione in funzione del tipo di movimento dell’interlocutore. Tutte le cognizioni di base sono i building blocks della coscienza, ma anche un robot in grado di comprenderli tutti non potrebbe essere definito davvero «cosciente». Ciò che ancora manca è il processo di integrazione tra gli elementi, dato dalla predizione, dalla decisione spontanea, ma soprattutto dalla memoria. Solo con l’implementazione di queste caratteristiche potremo finalmente ottenere dei robot in grado di prevedere, adattarsi ed agire autonomamente. Tramite il reinforcement learning molte IA sono già in grado di apprendere dal mondo, tuttavia ancora mancano le capacità di integrazione delle informazioni.
LE INNOVAZIONI IN CANTIERE
Affinché il robot umanoide impari gradualmente ed autonomamente a «funzionare» nel mondo come un bambino, deve essere in grado di interagire prestando attenzione agli eventi, proprio come un uomo. Affinché gli assomigli ancora di più, deve riuscire ad isolare e registrare le informazioni salienti al fine di ridurre il carico computazionale dell’acquisizione sensoriale, solo in questo modo riuscirebbe a creare un sistema di rappresentazioni sufficientemente simile a quello dell’uomo. Tale meccanismo prende il nome di binding: da una serie di informazioni ricchissime si può andare a selezionare le più salienti sulla base della forma, del colore o di altre caratteristiche. Si tratta di un meccanismo particolarmente importante dal punto di vista evolutivo, si pensi alla ricerca della preda o del predatore nello spazio, e in quanto tale non può mancare in un robot che cerca di replicare il risultato dell’evoluzione.
Al centro della retina umana vi è la cosiddetta fovea, ovvero l’area dell’occhio con maggior concentrazione di fotorecettori. Presto lo stesso risultato sarà riproducibile anche nel robot tramite modelli computazionali del centro e della periferia oculare, dunque in futuro l’automa tenderà a vedere proprio come noi: meglio centralmente, «peggio» alla periferia, cosa che gli consentirà di essere sempre più simile all’uomo anche nella percezione e nella successiva creazione delle rappresentazioni ad essa correlate.
I robot umanoidi nella quotidianità
Tuttavia non è necessario scendere nei particolari per comprendere l’avanzamento dei robot umanoidi. Anche tralasciando le analisi ingegneristiche e computazionali, la loro efficacia è ben visibile dal comportamento che adottano. Vi sono molti campi nei quali possono fare sfoggio di grandi abilità, ma di questi tempi le macchine più diffuse sono quelle collaborative, in diversi ambiti, specialmente quello sanitario e/o domestico. Gli R1 ad esempio nascono come robot umanoidi casalinghi presso l’Istituto Italiano di Tecnologia che vorrebbe portarli in tempi relativamente brevi negli ospedali e nelle abitazioni di tutti. Ad oggi Pepper, un «collega» di R1, è in sperimentazione presso l’IRCCS Casa Sollievo della Sofferenza di San Giovanni Rotondo e presto si spera possa essere diffuso in tante altre strutture a supporto del personale sanitario.
Restando sulla sanità non si può non citare Nao, un piccolo robot umanoide per la didattica, utilizzabile anche come supporto per i bambini autistici grazie al software Ask Nao, acronimo di Autism Solution for Kids. Tornando invece sul tema «robot umanoidi domestici», Samsung ha recentemente presentato al CES di Las Vegas il suo robot-maggiordomo Bot Handy, non umanoide tanto quanto gli altri automi, ma altrettanto efficace nello sbrigare le faccende di casa come riempire la lavastoviglie, fare il bucato o versare il vino nei calici. Anche Humanoid, il partner robot dall’aspetto simile a quello del celeberrimo Asimo, come Bot Handy e R1 vorrebbe presto unirsi alla quotidianità delle nostre famiglie, proprio come in un film di fantascienza, ma sia ben chiaro che l’ambito domestico non è l’unico dove i robot umanoidi hanno preso piede.
Dai mecha a Ultron
Ci spostiamo al di fuori delle abitazioni e delle strutture sanitarie per osservare i robot umanoidi in altri contesti. Potremmo parlare di Motobot, il robot-pilota della Yamaha che ha sfidato Valentino Rossi su pista, ma per quanto entusiasmi il tema delle competizioni tra robot e umani, la vera innovazione è altrove. Immaginate di poter controllare un mecha come in Pacific Rim o un robot da combattimento come in Real Steel: vi piace l’idea? Toyota con il robot T-HR3 a controllo remoto ci permette di fare congetture in modo sempre più concreto su queste due fantasie. Ovviamente il progetto non nasce con un intento violento e distruttivo, ma presto o tardi le innovazioni in quest’ambito potrebbero anche finire nelle mani degli eserciti e delle potenze mondiali, dopotutto l’origine delle IA risale ai meccanismi di puntamento utilizzati dall’artiglieria antiaerea nella Seconda Guerra Mondiale. Ad oggi non ci sono veri e propri robot umanoidi militari, ma il seguente video realizzato in CGI dallo studio di produzione Corridor Digital, ci lascia assaporare ed immaginare il futuro degli androidi killer.
Ci serva anche da memento per ricordarci che stiamo cercando di dare potere a macchine incredibilmente esperte che potrebbero eliminarci facilmente se solo lo volessero e se ne avessero le capacità. Come ci insegna Ultron, il fatto che una macchina sembri utile non esclude il rischio che diventi distruttiva. Questo non vuol dire che non si debba provare a rendere le tecnologie sempre più collaborative, ma è bene mantenere una certa cautela.
Fonte
- Metta, G., Sandini, G., Vernon, D., Natale, L., & Nori, F. (2008). The iCub humanoid robot: an open platform for research in embodied cognition.
ACM Digital Library - Mori, M., MacDorman, K. F., & Kageki, N. (2012). The uncanny valley [from the field].
IEEE Xplore - Metta, G., Natale, L., Nori, F., Sandini, G., Vernon, D., Fadiga, L., … & Montesano, L. (2010). The iCub humanoid robot: An open-systems platform for research in cognitive development.
ScienceDirect - Vannucci, F., Di Cesare, G., Rea, F., Sandini, G., & Sciutti, A. (2018). A robot with style: can robotic attitudes influence human actions?
IEEE Xplore