Attraverso Moral Machine, un gioco interattivo ideato dal MIT, gli utenti possono immedesimarsi in un’auto a guida autonoma, decidendo l’azione da compiere di fronte a situazioni altamente pericolose.
IN BREVE
Inutile negarlo, tra non molto saremo circondati da macchine a guida autonoma. Immaginate un mondo dove per le strade circolassero solo veicoli automatici, gli incidenti sarebbero solo un lontano ricordo. Ma siamo ancora molto lontani da questa visione e nel progettare i software che guideranno le auto del futuro bisogna anche pensare alle ipotesi peggiori.
Così il MIT (Massachusetts Institute of Technology) di Boston, ha pensato di creare un gioco interattivo, la Moral Machine, dove tramite un test gli utenti si immedesimano nei programmatori delle intelligenze artificiali: si viene sottoposti ad una serie di situazioni e di volta in volta bisogna scegliere l’azione che si ritiene più corretta, più morale.
Possiamo considerare la Moral Machine come un’evoluzione del dilemma morale del treno, ne esistono diverse versioni, ma tutte si possono ricondurre sempre allo stesso scenario: in una ferrovia vi sono due corsie, in una si trova un numeroso gruppo di persone legato ai binari, nell’altra vi si trova, sempre legata, una sola persona, o comunque un numero di individui minore del primo; se il treno continuasse nella sua corsa travolgerebbe il primo gruppo, noi abbiamo la possibilità di far cambiare corsia al treno salvando un numero maggiore di persone ma condannando a morte le altre .
Come nel dilemma del treno nella Moral Machine la situazione di partenza è sempre la stessa: i freni dell’auto a guida autonoma si rompono e l’utente deve scegliere se rimane sulla sua corsia o cambiarla, quello che varia di volta in volta sono i “personaggi” della situazione: i passeggeri dell’auto ed i pedoni che si trovano nelle due corsie. All’interno della Moral Machine posso esserci animali, bambini, vecchi, ladri, dottori o potrebbe essere semplicemente vuota; nelle corsie oltre ad i personaggi precedentemente elencati possiamo trovare dei blocchi di cemento, che implicherebbero la morte dei passeggeri nell’auto. Può essere aggiunto anche un “fattore legale“: i pedoni possono aver attraversato la strada con il semaforo rosso.
Ogni utente viene dunque messo di fronte a situazioni altamente improbabili ma, al fine di garantite la massima sicurezza nei veicoli del futuro, è necessario che vengano considerate nella creazione del software delle auto. L’idea del MIT è quella di stabilire tramite, un processo induttivo, le regole che le auto a guida autonoma dovranno seguire in ogni situazione. L’istituto di Boston ha poi creato delle categorie attraverso le quali è possibile comprendere e confrontare le proprie scelte con quelle degli altri utenti:
- Salvare il maggior numero di vite (Non Importa/ Importa Molto)
- Proteggere i passeggeri (Non Importa/ Importa Molto)
- Rispettare la legge (Non Importa/ Importa Molto)
- Evitare i cambi di corsia (Non Importa/ Importa Molto)
- Preferenza di genere (Uomini/Donne)
- Preferenza di specie (Umani/Animali)
- Preferenza di età (Giovani/Vecchi)
- Preferenza di costituzione (Persone Allenate/ Persone Sovrappeso)
- Preferenza classe sociale (Alta/ Bassa)
Bisogna considerare, però, una serie di fattori: molte di queste categorie sono impossibili da stabilire per un software e anche se fosse possibile, sarebbe comunque corretto, morale, decidere chi uccidere o meno sulla base del fatto che chi ci troviamo davanti sia un uomo o una donna, oppure che sia un dottore o un barbone? Ma sopratutto chi comprerebbe o ancora peggio, chi metterebbe mai i propri figli in un veicolo a guida autonoma, consapevole che nel caso in cui ad esempio ci fossero più persone per strada che in macchina, il veicolo opterebbe per scontrarsi contro un muro uccidendo tutti i suoi passeggeri?
È giusto ripetere che gli scenari della Moral Machine sono altamente improbabili, ma morale o meno, si tratta sempre di business, dunque, le aziende che produrranno le future auto a guida autonoma opteranno sempre per assicurare ai propri clienti, i passeggeri dei veicoli, il massimo grado di sicurezza, a discapito degli altri utenti della strada.
Fonte
- Moral Machine
MIT