Scienze e Tecnologie » Tecnologie informatiche » Ict

Tutti i sentimenti di FACE, donna robot dalle tante espressioni

Dalla felicità alla rabbia, passando per l'incredulità. Sono alcuni dei sentimenti tradotti sul viso dell'umanoide creato da un team di scienziati italiani e americani. Già presentato a Genova, è stato usato nel confronto con bambini affetti da autismo

» Ict Emanuele Dorru - 13/11/2012

Riuscire a riprodurre emozioni tanto sorprendenti da sembrare reali. È stato questo uno degli ostacoli della robotica moderna. Almeno fino ad oggi. Già perché pochi mesi fa un team di ricercatori italiani e americani ha realizzato un robot con sembianze femminili capace di riprodurre emozioni nelle espressioni facciali. L'umanoide chiamato FACE, acronimo di Facial Automaton for Conveying Emotions, è nato dalla collaborazione del Centro di Ricerca 'E. Piaggio' dell'Università di Pisa, guidati dal professor Danilo de Rossi con la Hanson Robotics, di Dallas, Stati Uniti, ed è stato presentato per la prima volta in Italia al Festival della Scienza di Genova lo scorso fine ottobre.

FACE, dunque, è un piccolo miracolo della robotica che riesce ad interagire in modo empatico con gli esseri umani usando la comunicazione non verbale, fatta di espressioni, di sguardi (come dimostra il video qui sotto, ndr). Non solo. Data la sua particolare articolazione del viso, e dunque la riconoscibilità di un preciso stato emotivo, il robot è già stato utilizzato per la prima volta alla Fondazione Stella Maris di Pisa per alcuni esperimenti condotti su bambini affetti da autismo, chiamati ad interpretare le espressioni facciali di FACE sotto la guida di un terapista. I dati raccolti dall'interazione non verbale dei bambini con l'umanoide, serviranno a mettere a punto miglioramenti consistenti nei protocolli riabilitativi dei pazienti.

"L'interazione sociale del robot - ha spiegato il professor De Rossi, coordinatore del gruppo 'Face team' e direttore del Centro 'E.Piaggio' - è resa possibile da microtelecamere poste nei suoi occhi e microfoni nelle orecchie, che le permettono di orientare lo sguardo verso l'interlocutore umano, analizzarne le espressioni facciali e la gestualità e inferire il suo stato emotivo". "Le informazioni acquisite servono al robot per riprodurre l'espressione dello stato emotivo adeguato alla situazione".

Nel viso di un essere umano sono oltre 100 i muscoli utilizzati per esprimere le emozioni, e molti di loro si differenziano per forma e funzionalità. Al fine di ricreare il maggior numero possibile di espressioni. La complessa struttura del volto del robot FACE, invece, comprende più di 32 motori posti tra l'epidermide e la struttura ossea, che funzionano in modo analogo ai muscoli facciali umani, e che permettono di imitare una vera e propria attività muscolare, quindi controllare ogni minimo movimento del viso e generare una enorme quantità di espressioni anche molto complesse, a partire da sei stati emotivi di base: rabbia, disgusto, paura, felicità, tristezza, sorpresa. 

Inoltre, i ricercatori hanno utilizzato un programma chiamato HEFES, acronimo di Hybrid Engine for Facial Expressions Synthesis, per controllare i motori e applicare tutti i calcoli necessari per stabilire esattamente come i motori stessi dovrebbero agire per raggiungere l'emozione desiderata. HEFES si avvale del sistema di Facial Action Coding che cataloga le emozioni raggiunte in termini di movimenti muscolari. Di fatto questo sistema permette all'operatore di scegliere l'espressione per tra le emozioni di base classificate. "Data la natura artificiale del sistema - ha aggiunto Daniele Mazzei, ricercatore al Centro 'E.Piaggio' - la comunicazione risulta nettamente semplificata e ridotta rispetto a quella umana e, soprattutto il soggetto affetto da autismo può concentrarsi su un numero limitato e facilmente riproducibile di espressioni emotive".