Uw gegevens. Uw keuze.

Als je alleen het noodzakelijke kiest, verzamelen we met cookies en vergelijkbare technologieën informatie over je apparaat en je gebruik van onze website. Deze hebben we nodig om je bijvoorbeeld een veilige login en basisfuncties zoals het winkelwagentje te kunnen bieden.

Als je overal mee instemt, kunnen we deze gegevens daarnaast gebruiken om je gepersonaliseerde aanbiedingen te tonen, onze website te verbeteren en gerichte advertenties te laten zien op onze eigen en andere websites of apps. Bepaalde gegevens kunnen hiervoor ook worden gedeeld met derden en advertentiepartners.

Jonathan Cohen / Universiteit van Binghamton
Nieuws en trends

Blindengeleidehond 2.0: Deze robot praat en begeleidt je naar je bestemming

Kim Muntinga
13/4/2026
Vertaling: machinaal vertaald

Slechts twee procent van de visueel gehandicapten in de VS gebruikt een geleidehond omdat echte honden duur en zeldzaam zijn. Een robot van de Universiteit van Binghamton wil deze kloof dichten: Hij gidst, plant routes en praat met je.

Een echte geleidehond begrijpt ongeveer 20 commando's. Hij leidt, waarschuwt en beschermt, maar legt niets uit. Hij kan je niet vertellen of het pad naar links korter is, of de gang op dit moment vrij is of hoe lang het duurt voordat je bij de conferentie bent. Dit is echter precies wat de vierpotige robot van Binghamton University wel kan.

Shiqi Zhang, universitair hoofddocent aan de School of Computing in het Thomas J. Watson College of Engineering and Applied Science, en zijn team hebben een robotgeleidehond ontwikkeld die grote taalmodellen gebruikt - met name GPT-4 - om echte tweewegcommunicatie met zijn gebruikers aan te gaan. Het systeem plant routes, legt ze voor vertrek uit en beschrijft de omgeving in realtime tijdens de reis.

Het is belangrijk om op te merken dat de getoonde demonstraties nog geen volledig autonoom systeem zijn. De fysieke beweging van de robot wordt op dit moment gecontroleerd en op afstand bestuurd door een expert, terwijl spraakinteractie, routeselectie en situatiebeschrijving al geautomatiseerd zijn.

Van lijntrekken naar gesproken taal

In een eerdere iteratie reageerde de robothond op zenuwtrekjes aan de lijn om van richting te veranderen op kruispunten. De nieuwe aanpak gaat veel verder.

Voordat de rondleiding begint, vraagt de robot waar je heen wilt. Hij stelt mogelijke routes voor, vertelt je de geschatte wandeltijd en wacht op jouw keuze. Onderweg verbaliseert de robot de omgeving: hij vertelt je of er een lange gang voor je ligt, kondigt obstakels aan en geeft je een situationeel overzicht dat een echte hond je niet kan geven.

Echte hond

Echte honden begrijpen in het beste geval maar zo'n 20 commando's. Maar met robotgeleidehonden kun je GPT-4 gebruiken met spraakcommando's en heb je zeer sterke taalcapaciteiten.
Shiqi Zhang, Associate Professor, Binghamton University

Het systeem combineert twee belangrijke functies: zogenaamde Plan Verbalisation - routeplanning voordat je op pad gaat - en Scene Verbalisation, d.w.z. de voortdurende beschrijving van de omgeving tijdens de tocht. Volgens Zhang is vooral dat laatste waardevol, omdat het situationeel en omgevingsbewustzijn ernstig beperkt is zonder zicht.

De test: 7 blinde deelnemers in een kantorencomplex

Om het systeem te evalueren, rekruteerden de onderzoekers zeven mensen tussen de 40 en 68 jaar die wettelijk als blind zijn erkend: twee van hen hadden ervaring als geleidehondeneigenaar. In een ruim kantoorgebouw met meerdere kamers navigeerde de robot de proefpersonen naar een vergaderzaal. Het systeem vroeg naar de bestemming, presenteerde mogelijke routes en leidde de deelnemers vervolgens stap voor stap, met voortdurende gesproken instructies.

Elke deelnemer doorliep drie varianten: minimale spraakinteractie, alleen omgevingsbeschrijvingen tijdens de reis en tot slot het volledige systeem met routeplanning en real-time commentaar. De resultaten van het daaropvolgende onderzoek waren duidelijk: De gecombineerde variant scoorde het beste in de categorieën bruikbaarheid, communicatiegemak en behulpzaamheid.

In een aanvullende computersimulatie testte het team het systeem met 77 navigatieverzoeken van 16 studenten: van directe formuleringen zoals «Ik wil graag naar het toilet» tot vage verzoeken zoals «Ik wil graag even zitten en rusten.» Met de optie om vragen te stellen herkende het systeem de bestemming in 94,8 procent van de gevallen correct. Het systeem bleek ook robuust tegen zeer luidruchtige spraakinvoer - gesimuleerd met bijna één op de drie onjuiste tekens.

Een enorm leveringsprobleem op de achtergrond

De onderzoeksaanpak richt zich niet alleen op een technische leemte, maar ook op een echt sociaal probleem: in de VS gebruikt slechts ongeveer twee procent van de visueel gehandicapten een geleidehond.

De reden is niet een gebrek aan vraag, maar de enorme kosten: het trainen van een echte geleidehond duurt twee tot drie jaar en kost ongeveer 50.000 Amerikaanse dollar. Minder dan de helft van de honden voltooit de training met succes. Een robotgeleidehond zou deze kloof kunnen dichten of op zijn minst verkleinen.

De kosten van de robotgeleidehond zijn nog onduidelijk. Het onderzoeksteam maakt op dit moment de prijs van het systeem niet bekend. In de VS worden echter zelfs klassieke geleidehonden meestal niet gefinancierd door zorgverzekeraars, maar mogelijk gemaakt door donaties, stichtingen en liefdadigheidsorganisaties.

Een dergelijk technisch assistentiesysteem zou daarom ofwel door de overheid gesubsidieerd moeten worden, beoordeeld moeten worden via nieuwe verzekeringsmodellen of particulier gefinancierd moeten worden. Zonder corresponderende financieringsprogramma's zou zo'n robot anders voor veel getroffenen vrijwel onbetaalbaar zijn.

Het onderzoeksteam presenteerde hun onderzoek aan het publiek.

Het onderzoeksteam presenteerde hun werk onder de titel «From Woofs to Words: Towards Intelligent Robotic Guide Dogs with Verbal Communication» op de 40e jaarlijkse AAAI-conferentie over kunstmatige intelligentie, een van de grootste AI-conferenties ter wereld.

Outlook voor de toekomst

De volgende stappen zijn duidelijk gedefinieerd: Het team plant verdere gebruikersstudies, wil de autonomie van het systeem vergroten en de robot in staat stellen grotere afstanden af te leggen, zowel binnen als buiten.

Alleen als waarneming, navigatie en beweging volledig autonoom samenwerken, kan het huidige onderzoeksprototype een assistentiesysteem worden dat geschikt is voor dagelijks gebruik.

Omslagfoto: Jonathan Cohen / Universiteit van Binghamton

4 mensen vinden dit artikel leuk


User Avatar
User Avatar

Mijn interesses zijn gevarieerd, ik geniet gewoon graag van het leven. Altijd op zoek naar nieuws over darten, gamen, films en series.


Nieuws en trends

Van de nieuwe iPhone tot de wederopstanding van de mode uit de jaren 80. De redactie categoriseert.

Alles tonen

Deze artikelen kunnen je ook interesseren

  • Nieuws en trends

    Robot vouwt wasgoed, pakt pakjes in - en improviseert tijdens het proces

    van Kevin Hofer

  • Nieuws en trends

    USM Haller: De kunst om altijd opnieuw te verrassen

    van Pia Seidel

  • Achtergrond

    Dit getest met robots is gênant, Kassensturz!

    van Lorenz Keller

1 commentaar

Avatar
later