Kijkrichting en gezichtsuitdrukking van robots is essentieel voor interactie met mensen
Door de snelle ontwikkelingen in kunstmatige intelligentie en robottechnologie zullen sociale robots steeds vaker worden ingezet in de samenleving. Robotica-onderzoeker Chinmaya Mishra bekeek het belang van kijkrichting en menselijke emoties in onze communicatie met robots en ontwikkelde twee systemen om het gezicht van robots in ons voordeel te laten werken. Mishra promoveert op 17 april aan de Radboud Universiteit.
Je ziet ze al in bijvoorbeeld de gezondheidszorg, detailhandel en onderwijs: robots worden steeds meer onderdeel van onze samenleving. Daardoor wordt het ook belangrijker dat we gemakkelijk met ze kunnen communiceren. Sociale robots zijn – in tegenstelling tot industriële robots – specifiek bedoeld om interactie te hebben met mensen. ´Het gaat dan dus niet om een stofzuigrobot, maar om een robot met wie we daadwerkelijk kunnen communiceren, zoals een personal assistent´, legt robotica-onderzoeker Chinmaya Mishra uit. ´We willen dat ze zich gedragen zoals we dat in onze samenleving verwachten. Om ons leven te vergemakkelijken, moeten robots zo gemaakt worden dat ze passen bij onze manier van communiceren. ´
Het gezicht van robots speelt daarin een grote rol. ´Dat is door veel ontwikkelaars genegeerd, omdat het supermoeilijk is om een robotgezicht hetzelfde te laten doen als dat van een mens´, zegt Mishra. ´Er zijn robots die het kunnen, maar die zijn peperduur.´ Met name oogcontact, kijkrichting zijn en gezichtuitdrukkingen zijn cruciaal in menselijke communicatie. ´Een sociale robot die mensen moet ontvangen in een ziekenhuis zou bijvoorbeeld kunnen glimlachen als hij iemand doorverwijst naar de juiste ruimte, of even wegkijken als hij moet nadenken´, zegt Mishra. ´Daardoor ontstaat een meer persoonlijke en natuurlijke interactie.´
Voor zijn onderzoek gebruikte de robotica-onderzoeker een Furhat-robot, een sociale robot met een op de achterkant geprojecteerd geanimeerd menselijk gezicht dat kan bewegen en emoties kan uitdrukken op een mensachtige manier. Hij ontwikkelde een algoritme om het kijkgedrag van de robot tijdens mens-robot-interactie te automatiseren. Het systeem werd vervolgens geëvalueerd met proefpersonen. ´Vooral het afwenden van de blik bleek heel belangrijk´, legt Mishra uit. ´Als we de robot lieten staren naar de deelnemer, dan begon die zich ongemakkelijk te voelen en de blik van de robot te vermijden. Als een robot niet-menselijk kijkgedrag vertoont, wordt de interactie ermee dus moeilijker.´
Emoties
Om de robot de juiste emoties te laten uitdrukken, maakte Mishra gebruik van de voorloper van ChatGPT (GPT-3.5). Dat ´luisterde´ mee tijdens het gesprek, en voorspelde op basis daarvan de emotie die de robot moest tonen - zoals blij, verdrietig of verrast - die vervolgens op de Furhat-robot verscheen. Resultaten van een gebruikersonderzoek toonden aan dat deze aanpak goed werkte en dat deelnemers hoger scoorden in een samenwerkingstaak met de robot wanneer de robot de juiste emoties uitte. Deelnemers voelden zich ook positiever over hun interactie met een robot als deze de juiste emoties toonde. Mishra: ´Ook dat toont aan hoezeer non-verbaal gedrag in onze hersenen zit verankerd. Een robot die emotioneel passende reacties geeft, zorgt voor een effectievere samenwerking tussen mens en robot.´
Uit het onderzoek van Mishra blijkt dat passend non-verbaal gedrag onze interactie met robots vergemakkelijkt, maar dat betekent niet dat er straks levensechte, menselijke robots door de straten lopen. ´Robots zijn gereedschappen´, stelt de onderzoeker. ´Ze hoeven niet alles te kunnen wat wij kunnen, dat is over-engineering. Maar als ze op een vertrouwde manier met ons kunnen communiceren, hoeven wij onszelf geen nieuw communicatiegedrag aan te leren. Kijkrichting zou je ook kunnen aangeven met een pointer, een emotie kun je weergeven met een kleur. Maar dat is niet natuurlijk voor ons. Waarom zouden wij ons moeten aanpassen? We kunnen beter robots ontwikkelen die zich aanpassen aan wat wij kennen.´
Je ziet ze al in bijvoorbeeld de gezondheidszorg, detailhandel en onderwijs: robots worden steeds meer onderdeel van onze samenleving. Daardoor wordt het ook belangrijker dat we gemakkelijk met ze kunnen communiceren. Sociale robots zijn – in tegenstelling tot industriële robots – specifiek bedoeld om interactie te hebben met mensen. ´Het gaat dan dus niet om een stofzuigrobot, maar om een robot met wie we daadwerkelijk kunnen communiceren, zoals een personal assistent´, legt robotica-onderzoeker Chinmaya Mishra uit. ´We willen dat ze zich gedragen zoals we dat in onze samenleving verwachten. Om ons leven te vergemakkelijken, moeten robots zo gemaakt worden dat ze passen bij onze manier van communiceren. ´
Het gezicht van robots speelt daarin een grote rol. ´Dat is door veel ontwikkelaars genegeerd, omdat het supermoeilijk is om een robotgezicht hetzelfde te laten doen als dat van een mens´, zegt Mishra. ´Er zijn robots die het kunnen, maar die zijn peperduur.´ Met name oogcontact, kijkrichting zijn en gezichtuitdrukkingen zijn cruciaal in menselijke communicatie. ´Een sociale robot die mensen moet ontvangen in een ziekenhuis zou bijvoorbeeld kunnen glimlachen als hij iemand doorverwijst naar de juiste ruimte, of even wegkijken als hij moet nadenken´, zegt Mishra. ´Daardoor ontstaat een meer persoonlijke en natuurlijke interactie.´
Voor zijn onderzoek gebruikte de robotica-onderzoeker een Furhat-robot, een sociale robot met een op de achterkant geprojecteerd geanimeerd menselijk gezicht dat kan bewegen en emoties kan uitdrukken op een mensachtige manier. Hij ontwikkelde een algoritme om het kijkgedrag van de robot tijdens mens-robot-interactie te automatiseren. Het systeem werd vervolgens geëvalueerd met proefpersonen. ´Vooral het afwenden van de blik bleek heel belangrijk´, legt Mishra uit. ´Als we de robot lieten staren naar de deelnemer, dan begon die zich ongemakkelijk te voelen en de blik van de robot te vermijden. Als een robot niet-menselijk kijkgedrag vertoont, wordt de interactie ermee dus moeilijker.´
Emoties
Om de robot de juiste emoties te laten uitdrukken, maakte Mishra gebruik van de voorloper van ChatGPT (GPT-3.5). Dat ´luisterde´ mee tijdens het gesprek, en voorspelde op basis daarvan de emotie die de robot moest tonen - zoals blij, verdrietig of verrast - die vervolgens op de Furhat-robot verscheen. Resultaten van een gebruikersonderzoek toonden aan dat deze aanpak goed werkte en dat deelnemers hoger scoorden in een samenwerkingstaak met de robot wanneer de robot de juiste emoties uitte. Deelnemers voelden zich ook positiever over hun interactie met een robot als deze de juiste emoties toonde. Mishra: ´Ook dat toont aan hoezeer non-verbaal gedrag in onze hersenen zit verankerd. Een robot die emotioneel passende reacties geeft, zorgt voor een effectievere samenwerking tussen mens en robot.´
Uit het onderzoek van Mishra blijkt dat passend non-verbaal gedrag onze interactie met robots vergemakkelijkt, maar dat betekent niet dat er straks levensechte, menselijke robots door de straten lopen. ´Robots zijn gereedschappen´, stelt de onderzoeker. ´Ze hoeven niet alles te kunnen wat wij kunnen, dat is over-engineering. Maar als ze op een vertrouwde manier met ons kunnen communiceren, hoeven wij onszelf geen nieuw communicatiegedrag aan te leren. Kijkrichting zou je ook kunnen aangeven met een pointer, een emotie kun je weergeven met een kleur. Maar dat is niet natuurlijk voor ons. Waarom zouden wij ons moeten aanpassen? We kunnen beter robots ontwikkelen die zich aanpassen aan wat wij kennen.´
Geen opmerkingen: