Gli agenti virtuali possono diventare una risorsa importante nella nostra vita, in grado di aiutare le persone nel portare a termine i compiti più ripetitivi e liberare tempo per le attività human to human più ricche di valore. Al tal fine abbiamo lanciato sul mercato il nostro primo virtual agent, Sofia.
Per questo motivo, quando ci siamo imbattuti nella notizia che l’Università di Washington aveva realizzato una ricerca su come i conversational agent influiscono sulla crescita dei bambini, il nostro primo pensiero è stato quello di dedicarvi un approfondimento.
Se infatti il nostro obiettivo come azienda è quello di portare l’empatia nella tecnologia, non possiamo permetterci di ignorare i rischi e i pericoli che la tecnologia può rappresentare.
Ma andiamo al dunque; quali sono i risultati della ricerca dell'Università di Washington, che si è posta la domanda: “Parlare con i “robot” rende i bambini maleducati?”
La ricerca: i conversational agent e i bambini
Parlare con i “robot” - anche se magari non ce ne rendiamo conto - fa ormai parte della vita quotidiana di molte famiglie, il tutto grazie alla grandissima diffusione di conversational agent come Siri di Apple o Alexa di Amazon.
Recenti ricerche hanno dimostrato che i bambini sono felici di relazionarsi con i propri compagni di giochi artificiali, che - infatti - sono stati sviluppati e utilizzati anche a fini ludici ed educativi.
La domanda però che si sono posti i ricercatori è un’altra: parlare con Alexa o Siri influenza il modo in cui i bambini comunicano con gli altri esseri umani? È possibile che comincino a trattare familiari, amici e sconosciuti come robot di servizio?
Probabilmente no, secondo lo studio condotto dall'Università di Washington.
"Eravamo curiosi di sapere se i bambini stavano prendendo l’abitudine di conversare con gli umani come fanno con Alexa e altri agenti conversazionali", ha detto Alexis Hiniker, assistente professore dell’Università di Washington.
I ricercatori hanno reclutato 22 famiglie della zona di Seattle per partecipare a uno studio in cinque parti. Nella prima parte, i bambini dovevano parlare con un robot animato che veniva mostrato sullo schermo di un tablet.
Sul retro della sala, nascosto, un ricercatore faceva domande a ogni bambino, che l'app attraverso il robot traduceva in una voce sintetica. All'inizio, quando i bambini parlavano con il robot sul tablet, questo diceva loro: "A volte comincio a parlare molto lentamente. Puoi dire "bungo" per ricordarmi di parlare di nuovo normalmente."
Dopo alcuni minuti di chiacchierata con il bambino, l'app rallentava periodicamente il discorso del robot fino a quando il bambino non avesse detto "bungo." Quando ciò avveniva il ricercatore premeva un pulsante per riportare immediatamente il discorso del robot alla velocità normale.
La maggior parte dei bambini, il 64%, si è ricordata di usare il bungo la prima volta che l'agente ha rallentato il suo discorso, e tutti hanno imparato la routine alla fine di questa sessione.
Poi i bambini sono stati presentati a un agente conversazionale vero e proprio. Anche questo dispositivo - sempre collegato via voce al ricercatore nell’altra stanza - ha iniziato a parlare lentamente dopo una breve conversazione a velocità normale. Una volta che il bambino diceva "bungo" cinque volte, o lasciava che il robot continuasse a parlare lentamente per cinque minuti, il ricercatore concludeva la conversazione.
Alla fine di questa sessione, il 77% dei bambini aveva usato con successo bungo.
A questo punto, il bambino è stato lasciato solo con il genitore, che nel frattempo l’aveva raggiunto nella stanza. Una volta da solo, il genitore ha chiacchierato con il bambino e poi, come nei casi precedenti, ha iniziato a parlare lentamente.
19 genitori hanno condotto questa parte dello studio. Dei bambini che hanno completato questa parte, il 68% ha usato “bungo” nella conversazione con i genitori. Molti di loro lo usavano con affetto. Alcuni bambini lo facevano con entusiasmo, spesso interrompendo il genitore a metà frase. Altri hanno espresso esitazione o frustrazione, chiedendo ai loro genitori perché si comportavano come robot.
Finita questa fase, un ricercatore entrava nella stanza e cominciava a parlare con il bambino: come negli altri casi, normalmente in un primo momento, e dopo lentamente. In questa situazione, solo il 18% dei 22 bambini ha usato “bungo” con il ricercatore. Nessuno di loro ha commentato il discorso del ricercatore.
"I bambini hanno mostrato una consapevolezza sociale davvero sofisticata", ha detto Hiniker. "Vedevano la conversazione con il robot come un luogo in cui era appropriato usare la parola bungo. Con i genitori, la vedevano come un'opportunità per legare e giocare. E poi con il ricercatore, che era uno sconosciuto, hanno invece preso la strada socialmente sicura di usare la più tradizionale norma di non interrompere qualcuno che sta parlando con te."
Dopo questa sessione in laboratorio, i ricercatori volevano sapere come sarebbe andato il “bungo” in natura, quindi hanno chiesto ai genitori di provare a rallentare il loro discorso nelle successive 24 ore.
Dei 20 genitori che hanno provato a casa, 11 hanno riferito che i bambini hanno continuato a usare “bungo”. Questi genitori hanno descritto le esperienze come giocose e divertenti: un inside joke, se così si può dire. I bambini che hanno espresso scetticismo in laboratorio hanno invece continuato a chiedere ai loro genitori di smettere di comportarsi come robot.
"C'è consapevolezza nei bambini che i robot non sono persone, e non volevano che la linea tra umano e artificiale si confondesse" ha detto Hiniker. "Invece per i bambini che usavano bungo con i genitori questa esperienza voleva dire qualcosa di nuovo. Non era come se stessero iniziando a trattare i loro genitori come robot. Stavano giocando con loro e connettendosi con qualcuno che amavano."
Conclusioni: i virtual agent per insegnare l'empatia
Sebbene questi risultati suggeriscano che i bambini non saranno influenzati dal rapportarsi con i virtual agent in commercio, è ancora possibile che le conversazioni con un conversational agent possano avere un effetto sulle abitudini dei bambini - come l'uso di un particolare tipo di linguaggio o tono di conversazione - quando parlano con altre persone.
D'altro canto questa ricerca ci insegna anche che i dispositivi conversazionali possono aiutare i bambini a consolidare alcune strutture comunicative e - in qualche modo - insegnare l'empatia.
Come? Consideriamo l’empatia come una skill che si può affinare nel tempo, attraverso l’esercizio: in questo senso, metterla alla prova nel rapporto con i dispositivi tecnologici equivale a guardarsi allo specchio, come un campo di gioco grazie a cui i bambini possono comprendere la differenza tra umano e artificiale, ed esercitare la propria comprensione dei concetti di identità e umanità.
Semplificando ancora, si può dire che la creazione di una contrapposizione tra reale e virtuale permetta al reale di risaltare: un po’ come succede quando, trovandoci in una situazione nuova e opposta alla nostra solita vita, finiamo per comprendere e vedere con occhi nuovi il nostro punto di partenza.
Questo può essere il ruolo quindi degli agenti conversazionali: far vedere l’umanità e ciò che ci rende unici sotto un nuovo punto vista. Questo è in linea con ciò che per noi significa “portare l’empatia nella tecnologia”, ovvero la reale ricchezza dell’innovazione.