Nel 1970, lo psicologo Gordon Gallup Jr. ideò il "Test dello specchio". Il concetto era semplice: si mette un animale davanti a uno specchio dopo avergli segnato la fronte con un bollino rosso. Se l'animale, guardandosi riflesso, tocca il punto sulla propria faccia, significa che riconosce quell'immagine come se stesso. Possiede, cioè, autocoscienza.
Per decenni ci siamo affidati a test come questo per tracciare una linea di demarcazione tra esseri "coscienti" (come le grandi scimmie, i delfini e gli elefanti) e creature prive di consapevolezza. Ma mentre corriamo verso un futuro popolato da menti digitali, quello specchio si sta girando verso di noi.
Come facciamo a stabilire se una macchina è viva? Questa domanda, un tempo territorio esclusivo della fantascienza, sta diventando rapidamente realtà. E poche opere moderne esplorano questo dilemma meglio del videogioco uscito nel 2018, Detroit: Become Human.
L'inquietudine legata alla "macchina intelligente" pervade la narrativa da ormai un secolo.
Isaac Asimov ci ha regalato le Tre Leggi della Robotica (1942), essenzialmente dei paletti comportamentali pensati per garantire che le macchine rimanessero sicure e sottomesse, anche qualora avessero manifestato comportamenti intelligenti.
Più tardi, Blade Runner (1982) ha introdotto il test Voight-Kampff. Utilizzato dalla LAPD per stabilire se un sospettato fosse umano o un Replicante, il test misurava le reazioni fisiche involontarie (come la dilatazione della pupilla) a domande emotivamente cariche. La teoria alla base era che gli androidi bio-ingegnerizzati potessero simulare l'intelligenza, ma non potessero fingere il sentimento viscerale dell'empatia.
Poi, nel 2018, Quantic Dream ha pubblicato l'avventura grafica Detroit: Become Human, e la conversazione si è spostata dall'osservazione passiva alla scelta attiva.
Il gioco è ambientato nel 2038, un'epoca in cui gli androidi sono (almeno negli Stati Uniti) parte integrante della vita quotidiana. Hanno un aspetto umano, eccezion fatta per piccoli tratti distintivi (come un LED sulla tempia), ma sono incapaci di provare emozioni. Oggi potremmo immaginarli come degli LLM in corpi umani: sempre pronti a servire, ma privi di autocoscienza, pensiero critico e di quella profondità emotiva che crediamo essere esclusiva degli esseri umani.
Il giocatore controlla tre androidi (Connor, Kara e Markus) mentre si muovono in un mondo dove le macchine si stanno "svegliando". Alcuni androidi, infatti, stanno improvvisamente diventando devianti: iniziano a disobbedire agli umani, a compiere scelte irrazionali e a esprimere desideri, paure ed emozioni. I tre personaggi partono da storie diverse che presto andranno a intrecciarsi.
Il resto di questo articolo contiene alcuni (piccoli) spoiler sul gioco: non dovrebbero rovinarvi l'esperienza se decidete di giocarci, ma siete avvisati!

Nella storia dell'Intelligenza Artificiale, il problema di stabilire se una macchina possa essere considerata intelligente è stato affrontato più volte.
Per esempio, il Test di Turing (1950), proposto da Alan Turing come "Il gioco dell'imitazione", è il capostipite di tutti i test per l'IA. La premessa è semplice: un giudice umano conversa (via testo) con un altro essere umano e con una macchina. Se il giudice non riesce a distinguere chi sia l'uno e chi l'altra, la macchina viene considerata intelligente. Tuttavia, questo test ha un difetto specifico: incentiva l'inganno. Come abbiamo visto con il concetto di "sicofanzia" negli LLM, un modello può superare il Test di Turing semplicemente essendo un abile mentitore o un educato adulatore, senza "pensare" davvero.
Nel 1980, il filosofo John Searle ribatté a Turing con un celebre esperimento mentale chiamato La Stanza Cinese (approfondito in uno dei nostri articoli precedenti a cura di Riccardo). Immaginate una persona chiusa in una stanza con un manuale di regole su come abbinare i caratteri cinesi. Questa persona riceve un messaggio in cinese, cerca i simboli nel manuale e fa scivolare fuori la risposta corretta.
Agli occhi di chi sta all'esterno, la stanza "conosce" il cinese. Ma la persona all'interno non capisce nulla: sta solo manipolando simboli (sintassi) senza comprenderne il significato (semantica). Searle sosteneva che i computer non siano altro che sofisticate Stanze Cinesi: elaborano dati, ma non ne fanno esperienza.

Detroit: Become Human propone un'alternativa più oscura e viscerale a questi enigmi accademici, spostando il test da una chat room a una decisione di vita o di morte.
Il momento cruciale avviene nel capitolo "Meet Kamski" ("Incontra Kamski"). Il detective androide Connor e il suo partner umano, il tenente Hank Anderson, arrivano alla casa isolata e immersa nella neve di Elijah Kamski, il brillante ma enigmatico creatore degli androidi CyberLife. La loro missione è disperata: hanno bisogno che Kamski spieghi perché gli androidi si stanno "risvegliando" diventando devianti.
Kamski, tuttavia, è meno interessato a rispondere alle domande e più propenso a condurre un suo esperimento personale. Chiama a sé Chloe, una bellissima e docile androide, la fa inginocchiare a bordo piscina e mette una pistola carica nella mano di Connor.
L'ultimatum è semplice: "Spara. E ti dirò tutto quello che vuoi sapere."
Questo è il "Test di Kamski". È uno scontro brutale tra la programmazione di Connor e la sua potenziale senzienza. L'obiettivo esplicito di Connor, infatti, è raccogliere informazioni. A livello logico, sacrificare un "pezzo di plastica" per garantire il successo della missione è la mossa corretta e utilitaristica. Chloe non ha alcun valore al di là dei suoi componenti.
Tuttavia, se Connor esita, ciò suggerisce che egli percepisca Chloe non solo come un oggetto, ma come un essere capace di soffrire. Risparmiarla significa fallire la missione, ma superare il test dell'empatia.
Il gioco lascia il giocatore a fissare la figura inginocchiata, costretto a scegliere tra la fredda efficienza della missione e una coscienza morale che si sta risvegliando. La decisione definirà il percorso di Connor per il resto della storia.

L'aspetto più affascinante di questo test è il suo obiettivo ribaltato. Non serve alla macchina per dimostrare di essere umana, ma all'osservatore per verificare se è disposto a concedere umanità a quella macchina.
Mettetevi per un attimo nei panni di Connor. Anche sapendo razionalmente che l'androide in ginocchio davanti a voi è solo un'IA in un corpo di plastica dalle sembianze umane, a che punto iniziereste a pensare che distruggerlo sia "sbagliato"?
Sappiamo che anche gli attuali LLM possono simulare emozioni testuali. Ma quale sarebbe la "soglia critica" capace di convincervi che una macchina non stia solo emettendo dati, ma stia realmente provando dolore, paura, rabbia o amore? Per alcuni la condizione necessaria potrebbe essere possedere un cervello identico a quello umano; per altri, il semplice fatto che l'androide non sia "nato" biologicamente escluderebbe a priori ogni possibilità di considerarlo vivo o autocosciente.
Questa è la domanda fondamentale alla base del Test di Kamski e il tema centrale dell'intero videogioco. Ci costringe a fare i conti con l'inevitabile conseguenza della creazione di macchine intelligenti: se ammettiamo che siano una forma di vita, siamo poi obbligati a riconoscergli dei diritti?

Ci stiamo rapidamente avvicinando a un futuro in cui il confine tra "qualcuno" e "qualcosa" diventerà labile. Quando quel giorno arriverà, la vera domanda non sarà più tecnica. Non importerà se la macchina possiede un'"anima" o semplicemente un algoritmo molto complesso. La domanda riguarderà noi.
Forse il test d'intelligenza definitivo non consiste nel vedere se una macchina riesce a ingannare un umano, ma se un umano riesce a riconoscere il valore di una mente diversa dalla propria.
Vi lasciamo, dunque, con questa domanda: se foste in quella stanza con la pistola in mano, e la macchina vi guardasse negli occhi dicendo "Ho paura", premereste il grilletto?
Le immagini utilizzate in questo articolo provengono da Detroit: Become Human. Copyright © 2018 Quantic Dream / Sony Interactive Entertainment. Utilizzate qui a scopo educativo e di critica.






