Espressioni facciali sempre più umane per i robot grazie a una nuova tecnologia giapponese: il video

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Microcredito

per le aziende

 


Foto delle espressioni reali realizzate nei robot usati nello studio. Credit: Dipartimento di Ingegneria Meccanica, Facoltà di Ingegneria, Università di Osaka; Dipartimento di Smart Design, Facoltà di Architettura e Design, Università di Aichi Sangyo e Télécom Physique Strasburgo, Università di Strasburgo.

Un team di ricercatori giapponesi ha sviluppato una tecnologia potenzialmente rivoluzionaria che permette ai robot di riuscire a replicare espressioni facciali dinamiche in modo realistico e adattivo. Questo sistema, basato sull’uso di «movimenti a forma d’onda», rappresenta un notevole passo avanti nel campo della robotica. Grazie a questa innovazione, i robot potranno non solo imitare con precisione i gesti umani, ma anche adattarli al proprio “stato interiore”, come eccitazione o rilassatezza, rendendo la comunicazione uomo-macchina più naturale che mai. A differenza dei metodi tradizionali, che si basavano su scenari preimpostati e che spesso producono risultati meccanici e innaturali, il nuovo approccio consente ai robot di modulare i propri movimenti in tempo reale. Vediamo come funziona questa tecnologia e quali applicazioni potrebbe avere nel futuro prossimo.

Dilazione debiti

Saldo e stralcio

 

Come funziona il nuovo sistema che rende le espressioni dei robot più realistiche

Il cuore di questo sistema si basa su due moduli principali. Il primo, definito “modulo temporale”, analizza lo stato interno del robot – ad esempio eccitazione o rilassatezza – e genera schemi temporali che riflettono queste condizioni. Il secondo, chiamato “modulo posturale”, traduce questi schemi in movimenti specifici, coordinando i vari attuatori che controllano elementi come la mascella, le palpebre e i muscoli facciali. Questo approccio elimina la necessità di preimpostare scenari complessi, riducendo anche le transizioni innaturali tra un’espressione e l’altra.

Grazie a questa capacità di modulare i movimenti in base alle condizioni interne, un robot potrebbe, per esempio, esprimere eccitazione attraverso gesti rapidi e ampi; al contrario, un’emozione come la sonnolenza, verrebbe comunicata con movimenti più lenti e ritmati. Questo tipo di interazione non solo rende i robot più “credibili”, ma li avvicina a quella che potrebbe essere una comunicazione emotiva autentica con gli esseri umani.

Hisashi Ishihara, uno degli autori principali dello studio, ha riferito:

Piuttosto che creare movimenti superficiali, l’ulteriore sviluppo di un sistema in cui le emozioni interiori si riflettono in ogni dettaglio delle azioni di un androide potrebbe portare alla creazione di androidi percepiti come dotati di un cuore.

Siamo vicini all’eliminazione della uncanny valley?

Guardare un robot che tenta di imitare un essere umano può risultare impressionante ma anche inquietante. Nonostante le fattezze realistiche, spesso i movimenti risultano poco convincenti, creando una sorta di “disagio” che la scienza definisce uncanny valley, quella sensazione di inquietudine provocata da oggetti o figure che sembrano umane ma non lo sono del tutto. Questo effetto deriva soprattutto dalla difficoltà, per i metodi tradizionali, di riprodurre espressioni fluide e coerenti. Finora, gli androidi erano programmati per eseguire movimenti facciali predefiniti, con passaggi rigidi tra un’espressione e l’altra. Un approccio che, sebbene efficace in situazioni semplici, mostrava evidenti limiti quando si trattava di simulare emozioni più complesse o di mantenere una naturalezza nei movimenti.

Il nuovo sistema sviluppato presso l’Università di Osaka e pubblicato in uno studio sul Journal of Robotics and Mechatronics supera questi ostacoli grazie a un metodo innovativo basato sui “movimenti a forma d’onda”. In parole semplici, questa tecnologia considera ogni movimento del volto, come sbattere le palpebre o inclinare la testa, come una “onda”. Queste onde vengono sovrapposte e propagate alle diverse aree facciali, generando in tempo reale una vasta gamma di movimenti complessi e armoniosi. Il risultato è una mimica facciale che non solo appare naturale ma si adatta dinamicamente alle interazioni e alle circostanze.

Le possibili applicazioni della nuova tecnologia per le espressioni facciali dei robot

I ricercatori sottolineano che questa innovazione potrebbe avere applicazioni in diversi settori. Pensate all’assistenza alle persone anziane, dove un robot capace di esprimere empatia potrebbe fare la differenza nel creare un legame più profondo e significativo con le persone a cui presta assistenza. Nell’ambito educativo e dell’intrattenimento, robot dotati di una mimica facciale avanzata potrebbero arricchire l’esperienza utente, rendendo le interazioni più coinvolgenti e naturali.

L’obiettivo a lungo termine è, insomma, quello di realizzare robot che non solo comprendano le emozioni umane, ma che siano in grado di esprimerle in modo adeguato, aprendo difatti la strada a una nuova era dell’interazione uomo-macchina. Questo è almeno quello che si aspettano gli autori dello studio. Uno di questi, Koichi Osuka, a questo riguardo ha infatti affermato:

Fare progredire questa ricerca sulla sintesi dinamica delle espressioni facciali renderà i robot capaci di eseguire movimenti facciali complessi, manifestare espressioni più vivaci e trasmettere cambiamenti di umore che rispondono alle circostanze, comprese le interazioni con gli umani. Ciò potrebbe arricchire notevolmente la comunicazione emotiva tra umani e robot.

Se desiderate giudicare con i vostri occhi i risultati dello studio, date un’occhiata al seguente video.

Microcredito

per le aziende

 





Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link