donderdag 18 april 2024
eufy robotstofzuiger met dweilfunctie
Dit nieuwe lid van de eufy Clean familie combineert een krachtige stofzuiger met een grondige dweilfunctie, om zelfs de hardnekkigste vlekken te verwijderen. Deze ultieme metgezel voor elke schoonmaakbeurt is vanaf vandaag verkrijgbaar op de website van eufy en Coolblue voor 799 euro.
Naast de enorme zuigkracht van 8.000 Pascal heeft de stofzuiger een rolborstel die gebaseerd is op het Pro Detangling Comb-ontwerp. Hiermee worden zelfs vloerkleden eenvoudig haarvrij gemaakt, ideaal voor mensen met huisdieren. Daarnaast is de eufy X10 Pro Omni uitgerust met het MopMaster 2.0-systeem. Hierdoor worden vlekken met één kilogram contactdruk en twee roterende dweilen makkelijk verwijderd. Het vijfhoekige ontwerp zorgt voor een groter bereik en een betere reiniging van de hoeken. Na het schoonmaken keert de stofzuiger terug naar het automatische leeg- en laadstation. Hier wordt het vuil geleegd, maakt hij de twee dweilen schoon en droog en zorgt dat hij weer volledig opgeladen is voor de volgende schoonmaakbeurt.
De eufy X10 Pro Omni maakt gebruik van AI.See, een slimme AI-navigatie waarmee de robotstofzuiger moeiteloos alle obstakels ontwijkt. De AI-camera (bestaande uit een RGB-camera en LED) herkent en vermijdt de obstakels, zoals draden, pantoffels, meubels, maar ook eventuele uitwerpselen van huisdieren. Met de iPath Laser Navigation maakt de eufy X10 Pro Omni een plattegrond van het huis, zodat hij eenvoudig zijn weg kan vinden tijdens het schoonmaken. Daarnaast kan de robotstofzuiger dankzij de eufy Clean-technologie herkennen wanneer hij een tapijt nadert. In dit geval wordt de dweil automatisch verhoogd met 12 millimeter om het tapijt droog te houden tijdens het stofzuigen.
De eufy X10 Pro Omni kan bediend worden met spraakbesturing via Amazon Alexa of Google Assistant of de bijbehorende app en is nu verkrijgbaar voor 799 euro via de website van eufy en Coolblue.
—
woensdag 17 april 2024
Boston Dynamics ontwikkelt nieuwe versie Atlas-robot
Boston Dynamics heeft een nieuwe versie van de Atlas-robot gepresenteerd die voor bewegingen alleen elektromotoren gebruikt in plaats van de hydraulische gewrichten van de eerste versies.
Hoewel Atlas lijkt op een mens, zegt Boston Dynamics dat de robot niet 'beperkt moet zijn door het bereik van mensen'. Atlas moet dan ook bewegingen kunnen maken die mensen niet kunnen doen.
Boston Dynamics wil uiteindelijk Atlas commercieel verkopen en gaat hiervoor eerst kleinere tests uitvoeren met 'een kleine groep bedrijven'.
Boston Dynamics stopt met Atlas-robot
Boston Dynamics is gestopt met de Atlas-robot. Het bedrijf ontwikkelde de mensachtige robot sinds 2013, maar bracht hem nooit op de markt.
In de Farewell to HD Atlas-video zegt Boston Dynamics dat het 'tijd is voor onze hydraulische Atlas-robot om achterover te leunen en te ontspannen', zonder verder aan te geven waarom er met Atlas wordt gestopt.
De Atlas werd in juli 2013 voor het eerst gepresenteerd in het kader van een roboticawedstrijd van Darpa, een onderzoekstak van het Amerikaanse ministerie van Defensie.
maandag 15 april 2024
DippieDoe is een rondrijdende robot
De nieuwe werknemer heeft de naam DoeDoe. De robot rijdt een vaste route door het park en stopt op verschillende plekken.
De robot heeft meerdere sensoren en camera’s. Daarmee kan het snel navigeren en ziet hij tot honderd meter ver zonder dode hoeken.
maandag 8 april 2024
Kijkrichting en gezichtsuitdrukking van robots is essentieel voor interactie met mensen
Je ziet ze al in bijvoorbeeld de gezondheidszorg, detailhandel en onderwijs: robots worden steeds meer onderdeel van onze samenleving. Daardoor wordt het ook belangrijker dat we gemakkelijk met ze kunnen communiceren. Sociale robots zijn – in tegenstelling tot industriële robots – specifiek bedoeld om interactie te hebben met mensen. ´Het gaat dan dus niet om een stofzuigrobot, maar om een robot met wie we daadwerkelijk kunnen communiceren, zoals een personal assistent´, legt robotica-onderzoeker Chinmaya Mishra uit. ´We willen dat ze zich gedragen zoals we dat in onze samenleving verwachten. Om ons leven te vergemakkelijken, moeten robots zo gemaakt worden dat ze passen bij onze manier van communiceren. ´
Het gezicht van robots speelt daarin een grote rol. ´Dat is door veel ontwikkelaars genegeerd, omdat het supermoeilijk is om een robotgezicht hetzelfde te laten doen als dat van een mens´, zegt Mishra. ´Er zijn robots die het kunnen, maar die zijn peperduur.´ Met name oogcontact, kijkrichting zijn en gezichtuitdrukkingen zijn cruciaal in menselijke communicatie. ´Een sociale robot die mensen moet ontvangen in een ziekenhuis zou bijvoorbeeld kunnen glimlachen als hij iemand doorverwijst naar de juiste ruimte, of even wegkijken als hij moet nadenken´, zegt Mishra. ´Daardoor ontstaat een meer persoonlijke en natuurlijke interactie.´
Voor zijn onderzoek gebruikte de robotica-onderzoeker een Furhat-robot, een sociale robot met een op de achterkant geprojecteerd geanimeerd menselijk gezicht dat kan bewegen en emoties kan uitdrukken op een mensachtige manier. Hij ontwikkelde een algoritme om het kijkgedrag van de robot tijdens mens-robot-interactie te automatiseren. Het systeem werd vervolgens geëvalueerd met proefpersonen. ´Vooral het afwenden van de blik bleek heel belangrijk´, legt Mishra uit. ´Als we de robot lieten staren naar de deelnemer, dan begon die zich ongemakkelijk te voelen en de blik van de robot te vermijden. Als een robot niet-menselijk kijkgedrag vertoont, wordt de interactie ermee dus moeilijker.´
Emoties
Om de robot de juiste emoties te laten uitdrukken, maakte Mishra gebruik van de voorloper van ChatGPT (GPT-3.5). Dat ´luisterde´ mee tijdens het gesprek, en voorspelde op basis daarvan de emotie die de robot moest tonen - zoals blij, verdrietig of verrast - die vervolgens op de Furhat-robot verscheen. Resultaten van een gebruikersonderzoek toonden aan dat deze aanpak goed werkte en dat deelnemers hoger scoorden in een samenwerkingstaak met de robot wanneer de robot de juiste emoties uitte. Deelnemers voelden zich ook positiever over hun interactie met een robot als deze de juiste emoties toonde. Mishra: ´Ook dat toont aan hoezeer non-verbaal gedrag in onze hersenen zit verankerd. Een robot die emotioneel passende reacties geeft, zorgt voor een effectievere samenwerking tussen mens en robot.´
Uit het onderzoek van Mishra blijkt dat passend non-verbaal gedrag onze interactie met robots vergemakkelijkt, maar dat betekent niet dat er straks levensechte, menselijke robots door de straten lopen. ´Robots zijn gereedschappen´, stelt de onderzoeker. ´Ze hoeven niet alles te kunnen wat wij kunnen, dat is over-engineering. Maar als ze op een vertrouwde manier met ons kunnen communiceren, hoeven wij onszelf geen nieuw communicatiegedrag aan te leren. Kijkrichting zou je ook kunnen aangeven met een pointer, een emotie kun je weergeven met een kleur. Maar dat is niet natuurlijk voor ons. Waarom zouden wij ons moeten aanpassen? We kunnen beter robots ontwikkelen die zich aanpassen aan wat wij kennen.´
vrijdag 5 april 2024
‘Apple bezig met huisrobot’
Dergelijke robots worden in Japan al gebruikt in de zorg: zo zijn er robots die ouderen uit bed en in een rolstoel kunnen helpen, of ze helpen met het uitvoeren van huishoudelijke klusjes.
In de loop van de jaren zou de robot-monitor meermaals op de roadmap zijn geplaatst en er weer af zijn gehaald.
Apple vraagt in een vacature naar een medewerker met verstand van robotica en AI, dus dat zou er iets mee te maken kunnen hebben.
donderdag 4 april 2024
Circusartiest Daniel bouwt een robot
Wat doe je als je al twee jaar geen circuspartner kan vinden? Er zelf eentje bouwen! Dat is wat circusartiest Daniel Simu dacht. Inmiddels is zijn robot Robin net zo acrobatisch als Daniel en betreden ze samen het podium,
woensdag 3 april 2024
DAL-e Delivery: revolutie in autonome bezorgdiensten binnenshuis
Kia presenteert samen met Hyundai de nieuwste versie van de DAL-e Delivery. De geavanceerde bezorgrobot is een verbeterde versie van de robot die in december 2022 werd geïntroduceerd en is doorontwikkeld om het autonoom bezorgen in complexe omgevingen, zoals kantoren en winkelcentra, naar een volgend plan te tillen.
Om de rijstabiliteit verder te verbeteren, heeft de DAL-e Delivery nu een vierkant kolomdesign met afgeronde hoeken en een zwaartepunt aan de onderkant.
De DAL-e Delivery is gebaseerd op vier Plug & Drive (PnD)-modules en combineert een elektromotor met omgevingsherkenningssensoren en stuur-, ophangings- en remsystemen. De robot kan snelheden tot 1,2 m/s halen, waarbij de vrij bewegende modules worden gecombineerd met autonome rijtechnologie om obstakels te herkennen en gemakkelijk te navigeren in drukke omgevingen.
De in de laadruimte verwerkte verlichting zorgt ervoor dat de items gemakkelijk kunnen worden in- en uitgenomen. Wanneer de deur opengaat, komt het opbergvak automatisch naar voren.
Nog een opvallend kenmerk van de DAL-e Delivery is zijn autonome rijvermogen om van en naar alle verdiepingen van een gebouw te navigeren, waarbij het rekening kan houden met liften en eventuele deurcontrolesystemen. Het kan zijn bezorgservice nog verder versnellen door in realtime optimale routes te bepalen.
Wanneer de DAL-e Delivery op de bestemming arriveert, herkent het de ontvanger via een geïnstalleerde camera. Door gebruik te maken van geavanceerde AI-gezichtsidentificatietechnologie, mede ontwikkeld door het Robotics Lab van Kia, gaat het laaddeurtje automatisch open zonder dat de ontvanger een wachtwoord hoeft in te voeren.
De DAL-e Delivery wordt voor het eerst in de praktijk ingezet door IGIS Asset Management in het nieuwe slimme kantoorgebouw ‘Factorial Seongsu’ dat in het tweede kwartaal van dit jaar wordt geopend.
dinsdag 2 april 2024
Nvidia en Apptronik gaan een samenwerking aan
Mercedes-Benz test de robot momenteel in een fabriek, waar Apollo onderdelen naar de productielijn brengt en componenten inspecteert.
Nvidia wil het met Project GR00T het realiseren van doorbraken in de ontwikkeling van robots en embodied AI versnellen. Embodied AI is een term die robots omschrijft die worden aangestuurd met behulp van kunstmatige intelligentie (AI).
Robots die gebruik maken van Project GR00T kunnen onder meer natuurlijke taal begrijpen en bewegingen nabootsen.