Robot heeft menselijke trekjes niet echt nodig
Robot R2-D2 uit Star Wars communiceert niet in mensentaal, maar toch laat hij al zien wat hij bedoelt. Voor interactie tussen robot en mens, hoeft de robot echt geen ‘humanoid’ te zijn. Mits je de signalen goed ontwerpt, aldus UT-promovenda Daphne Karreman.
Een mens kan pas gemakkelijk communiceren met een robot als die zoveel mogelijk menselijke trekjes heeft, is een gangbare opinie. Het nabootsen van natuurlijke bewegingen en uitdrukkingen is echter complex, en mensen gebruiken ook non-verbale signalen die een robot beter niet kan gebruiken: wijde armbewegingen, bijvoorbeeld. De mens blijkt goed in staat om ook sociaal te reageren op apparaten die er ook echt als apparaat uit zien, we blijken al van nature betekenis aan bewegingen en signalen te ontlenen. Twee lenzen op een robot maken al dat proefpersonen gaan zwaaien naar het apparaat.
Laag-antropomorf
Het is dan de kunst om intuïtieve signalen te ontwerpen die de intenties van de robot zo duidelijk mogelijk overbrengen. Daphne Karreman heeft zich gericht op een robot die als gids kan dienen in bijvoorbeeld een museum of dierentuin. Als die robot geen armen heeft om te wijzen, hoe breng je dan over waar de toeschouwers naar moeten kijken? Met gesproken of geschreven taal, een beeldscherm, projectie van beelden op een wand, specifieke bewegingen heeft ook de robot een heel arsenaal aan uitingsvormen die een mens niet heeft. Dit is bijvoorbeeld nog uit te breiden door te spelen met licht en kleur. De ‘laag-antropomorfe’ robot gaat daarmee verder dan de ‘astromechdroid’ R2-D2 uit Star Wars, die communiceert met piepjes die eerst nog vertaald moeten worden. De titel van het proefschrift is dan ook ‘Beyond R2-D2’.
Karreman heeft veel videomateriaal onderzocht om te kijken hoe mensen reageren op een robot. Tot nu toe is dit type onderzoek nog vooral in gecontroleerde labsituaties gedaan waarin mensen ook vooraf op de hoogte waren wat er zou gebeuren, of waarin bijvoorbeeld geen andere mensen aanwezig waren. In dit geval is het gedrag ‘in het wild’ en ongestructureerd. De mens komt de robot bijvoorbeeld tegen in het Koninklijk Paleis van Sevilla. Heeft iemand daar behoefte aan een rondleiding door een robotgids, wat maakt dat hij of zij een beetje afstand houdt of juist dichterbij komt, herkennen de mensen de signalen van de robot?
Om al het beschikbare videomateriaal te analyseren heeft Karreman een nieuwe tool ontwikkeld die Data Reduction Event Analysis Method (DREAM) heet. De onderzochte FROG-robot (Fun Robotic Outdoor Guide) heeft onder meer een beeldscherm, communiceert met lichtsignalen en een compacte pointer. Hij onderzoekt zélf of mensen geinteresseerd zijn in een rondleiding. Dankzij de krachtige DREAM-tool is het voor het eerst mogelijk om, aan de hand van videobeelden, de interactie te analyseren op een snelle en toch betrouwbare manier. Zo gaat DREAM niet, zoals andere tools, meteen over op interpretatie van de beelden, maar maakt het een vergelijking van meerdere ‘coders’ voor een betrouwbaar en reproduceerbaar resultaat.
Een mens kan pas gemakkelijk communiceren met een robot als die zoveel mogelijk menselijke trekjes heeft, is een gangbare opinie. Het nabootsen van natuurlijke bewegingen en uitdrukkingen is echter complex, en mensen gebruiken ook non-verbale signalen die een robot beter niet kan gebruiken: wijde armbewegingen, bijvoorbeeld. De mens blijkt goed in staat om ook sociaal te reageren op apparaten die er ook echt als apparaat uit zien, we blijken al van nature betekenis aan bewegingen en signalen te ontlenen. Twee lenzen op een robot maken al dat proefpersonen gaan zwaaien naar het apparaat.
Laag-antropomorf
Het is dan de kunst om intuïtieve signalen te ontwerpen die de intenties van de robot zo duidelijk mogelijk overbrengen. Daphne Karreman heeft zich gericht op een robot die als gids kan dienen in bijvoorbeeld een museum of dierentuin. Als die robot geen armen heeft om te wijzen, hoe breng je dan over waar de toeschouwers naar moeten kijken? Met gesproken of geschreven taal, een beeldscherm, projectie van beelden op een wand, specifieke bewegingen heeft ook de robot een heel arsenaal aan uitingsvormen die een mens niet heeft. Dit is bijvoorbeeld nog uit te breiden door te spelen met licht en kleur. De ‘laag-antropomorfe’ robot gaat daarmee verder dan de ‘astromechdroid’ R2-D2 uit Star Wars, die communiceert met piepjes die eerst nog vertaald moeten worden. De titel van het proefschrift is dan ook ‘Beyond R2-D2’.
Karreman heeft veel videomateriaal onderzocht om te kijken hoe mensen reageren op een robot. Tot nu toe is dit type onderzoek nog vooral in gecontroleerde labsituaties gedaan waarin mensen ook vooraf op de hoogte waren wat er zou gebeuren, of waarin bijvoorbeeld geen andere mensen aanwezig waren. In dit geval is het gedrag ‘in het wild’ en ongestructureerd. De mens komt de robot bijvoorbeeld tegen in het Koninklijk Paleis van Sevilla. Heeft iemand daar behoefte aan een rondleiding door een robotgids, wat maakt dat hij of zij een beetje afstand houdt of juist dichterbij komt, herkennen de mensen de signalen van de robot?
Om al het beschikbare videomateriaal te analyseren heeft Karreman een nieuwe tool ontwikkeld die Data Reduction Event Analysis Method (DREAM) heet. De onderzochte FROG-robot (Fun Robotic Outdoor Guide) heeft onder meer een beeldscherm, communiceert met lichtsignalen en een compacte pointer. Hij onderzoekt zélf of mensen geinteresseerd zijn in een rondleiding. Dankzij de krachtige DREAM-tool is het voor het eerst mogelijk om, aan de hand van videobeelden, de interactie te analyseren op een snelle en toch betrouwbare manier. Zo gaat DREAM niet, zoals andere tools, meteen over op interpretatie van de beelden, maar maakt het een vergelijking van meerdere ‘coders’ voor een betrouwbaar en reproduceerbaar resultaat.
Geen opmerkingen: