Tecno

E il robot ricambiò il sorriso

Il robot sorride: Eva imita le espressioni facciali umane in tempo reale da una telecamera in streaming vivente. L’intero sistema viene appreso senza etichette umane. Eva apprende due capacità essenziali: 1) anticipare come sarebbe se stesse facendo un’espressione facciale osservata, nota come immagine di sé; 2) associare il suo volto immaginato alle azioni fisiche.
CREDITO: Laboratorio di macchine creative / Columbia Engineering

I ricercatori della Columbia Engineering usano l’intelligenza artificiale per insegnare ai robot a creare espressioni facciali umane reattive appropriate, un’abilità che potrebbe creare fiducia tra gli esseri umani e i loro colleghi robotici e in coloro che si prendono cura di loro.

New York, NY – 30  maggio 2021 – Mentre le nostre espressioni facciali giocano un ruolo enorme nella costruzione della fiducia, la maggior parte dei robot sfoggia ancora il volto vuoto e statico di un giocatore di poker professionista. Con il crescente utilizzo di robot in luoghi in cui robot e umani devono lavorare a stretto contatto, dalle case di cura ai magazzini e alle fabbriche, la necessità di un robot più reattivo e realistico sta diventando sempre più urgente.

Pubblicità e progresso

Da tempo interessati alle interazioni tra robot e umani, i ricercatori del Creative Machines Lab della Columbia Engineering lavorano da cinque anni per creare EVA, un nuovo robot autonomo con un viso morbido ed espressivo che risponde alle espressioni degli umani vicini. La ricerca sarà presentata alla conferenza ICRA il 30 maggio 2021 e i progetti dei robot sono open source su Hardware-X (aprile 2021).

“L’idea di EVA ha preso forma alcuni anni fa, quando i miei studenti e io abbiamo iniziato a notare che i robot nel nostro laboratorio ci fissavano attraverso occhi di plastica e finti”, hanno detto Hod Lipson, James e Sally Scapa Professor of Innovation ( Ingegneria Meccanica) e direttore del Creative Machines Lab.

Lipson ha osservato una tendenza simile nel negozio di alimentari, dove ha incontrato robot di rifornimento che indossavano targhette con il nome e, in un caso, vestiti con un comodo berretto fatto a mano. “Le persone sembravano umanizzare i loro colleghi robotici dando loro occhi, un’identità o un nome”, ha detto. “Questo ci ha fatto chiedere, se gli occhi e l’abbigliamento funzionano, perché non creare un robot con un volto umano super espressivo e reattivo?”

Anche se sembra semplice, creare un volto robotico convincente è stata una sfida formidabile per i robotisti. Per decenni, le parti del corpo dei robot sono state realizzate in metallo o plastica dura, materiali troppo rigidi per scorrere e muoversi come fa il tessuto umano. L’hardware robotico è stato altrettanto grezzo e difficile da lavorare: circuiti, sensori e motori sono pesanti, ad alta intensità energetica e ingombranti.

SITO WEB DEL PROGETTO: http: // www. c.c. colombia. edu / ~ bchen / aiface /

La prima fase del progetto è iniziata nel laboratorio di Lipson diversi anni fa, quando lo studente universitario Zanwar Faraj ha guidato un team di studenti nella costruzione del “macchinario” fisico del robot. Hanno costruito EVA come un busto disincarnato che ha una forte somiglianza con gli artisti silenziosi ma animati dal viso del Blue Man Group. L’EVA può esprimere le sei emozioni di base di rabbia, disgusto, paura, gioia, tristezza e sorpresa, nonché una serie di emozioni più sfumate, utilizzando “muscoli” artificiali (cioè cavi e motori) che agiscono su punti specifici dell’EVA viso, imitando i movimenti degli oltre 42 minuscoli muscoli attaccati in vari punti alla pelle e alle ossa dei volti umani.

“La sfida più grande nella creazione di EVA è stata progettare un sistema che fosse abbastanza compatto da adattarsi ai confini di un cranio umano pur essendo abbastanza funzionale da produrre un’ampia gamma di espressioni facciali”, ha osservato Faraj.

Per superare questa sfida, il team ha fatto molto affidamento sulla stampa 3D per produrre parti con forme complesse che si integrassero perfettamente ed efficientemente con il cranio di EVA. Dopo settimane passate a tirare cavi per far sorridere, accigliare o sembrare sconvolto EVA, il team ha notato che il viso blu e senza corpo di EVA poteva suscitare risposte emotive dai loro compagni di laboratorio. “Un giorno stavo pensando ai miei affari quando EVA mi ha improvvisamente rivolto un grande sorriso amichevole”, ha ricordato Lipson. “Sapevo che era puramente meccanico, ma mi sono ritrovato a sorridere di riflesso.”

Processo di raccolta dati: Eva sta praticando espressioni facciali casuali registrando come appare dalla fotocamera frontale.
CREDITO: Laboratorio di macchine creative / Columbia Engineering

Una volta che il team è stato soddisfatto della “meccanica” di EVA, ha iniziato ad affrontare la seconda fase principale del progetto: la programmazione dell’intelligenza artificiale che avrebbe guidato i movimenti facciali di EVA. Mentre i robot animatronic realistici sono stati utilizzati per anni nei parchi a tema e negli studi cinematografici, il team di Lipson ha fatto due progressi tecnologici. EVA utilizza l’intelligenza artificiale di apprendimento profondo per “leggere” e quindi rispecchiare le espressioni sui volti umani vicini. E la capacità di EVA di imitare una vasta gamma di diverse espressioni facciali umane viene appresa per tentativi ed errori dalla visione di video di se stessa.

Le attività umane più difficili da automatizzare coinvolgono movimenti fisici non ripetitivi che avvengono in contesti sociali complicati. Boyuan Chen, studente di dottorato di Lipson che ha guidato la fase software del progetto, si è reso conto rapidamente che i movimenti facciali di EVA erano un processo troppo complesso per essere governato da insiemi di regole predefinite. Per affrontare questa sfida, Chen e un secondo team di studenti hanno creato il cervello di EVA utilizzando diverse reti neurali di Deep Learning. Il cervello del robot aveva bisogno di padroneggiare due capacità: in primo luogo, imparare a usare il proprio complesso sistema di muscoli meccanici per generare una particolare espressione facciale e, in secondo luogo, sapere quali volti fare “leggendo” i volti degli umani.

Per insegnare a EVA come appariva la sua faccia, Chen e il team hanno filmato ore di riprese di EVA che creava una serie di volti casuali. Quindi, come un essere umano che si guarda su Zoom, le reti neurali interne di EVA hanno imparato ad accoppiare il movimento muscolare con le riprese video del proprio volto. Ora che EVA aveva un senso primitivo di come funzionava il proprio volto (noto come “immagine di sé”), ha utilizzato una seconda rete per abbinare la propria immagine di sé con l’immagine di un volto umano catturato sulla sua videocamera. Dopo diversi perfezionamenti e iterazioni, EVA ha acquisito la capacità di leggere i gesti del viso umano da una fotocamera e di rispondere rispecchiando l’espressione facciale di quell’essere umano.

I ricercatori fanno notare che l’EVA è un esperimento di laboratorio e che il solo mimetismo è ancora ben lontano dai complessi modi in cui gli umani comunicano usando le espressioni facciali. Ma tali tecnologie abilitanti potrebbero un giorno avere applicazioni vantaggiose nel mondo reale. Ad esempio, i robot in grado di rispondere a un’ampia varietà di linguaggio del corpo umano sarebbero utili nei luoghi di lavoro, negli ospedali, nelle scuole e nelle case.

“C’è un limite a quanto noi umani possiamo interagire emotivamente con chatbot basati su cloud o altoparlanti disincarnati per la casa intelligente”, ha affermato Lipson. “Il nostro cervello sembra rispondere bene ai robot che hanno una sorta di presenza fisica riconoscibile”.

Chen ha aggiunto: “I robot sono intrecciati nelle nostre vite in un numero crescente di modi, quindi è sempre più importante creare un rapporto di fiducia tra gli esseri umani e le macchine”.

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.