Deine Daten. Deine Wahl.

Wenn du nur das Nötigste wählst, erfassen wir mit Cookies und ähnlichen Technologien Informationen zu deinem Gerät und deinem Nutzungsverhalten auf unserer Website. Diese brauchen wir, um dir bspw. ein sicheres Login und Basisfunktionen wie den Warenkorb zu ermöglichen.

Wenn du allem zustimmst, können wir diese Daten darüber hinaus nutzen, um dir personalisierte Angebote zu zeigen, unsere Webseite zu verbessern und gezielte Werbung auf unseren und anderen Webseiten oder Apps anzuzeigen. Dazu können bestimmte Daten auch an Dritte und Werbepartner weitergegeben werden.

Jonathan Cohen / Binghamton University
News & Trends

Blindenhund 2.0: Dieser Roboter spricht und führt dich ans Ziel

Kim Muntinga
13/4/2026

Nur zwei Prozent der Sehbehinderten in den USA nutzen einen Blindenhund, weil echte Hunde teuer und rar sind. Ein Roboter der Binghamton University soll die Lücke schliessen: Er führt, plant Routen und spricht mit dir.

Ein echter Blindenhund versteht rund 20 Kommandos. Er führt, warnt und schützt, aber er erklärt nicht. Er kann nicht sagen, ob der Weg nach links kürzer ist, ob der Flur gerade frei ist oder wie lange es noch bis zur Konferenz dauert. Genau das kann allerdings der vierbeinige Roboter der Binghamton University.

Shiqi Zhang, Associate Professor an der School of Computing des Thomas J. Watson College of Engineering and Applied Science, und sein Team haben einen robotischen Blindenhund entwickelt, der auf Basis großer Sprachmodelle – konkret GPT-4 – eine echte Zweiwegkommunikation mit seinen Nutzerinnen und Nutzern führt. Das System plant Routen, erklärt sie vor dem Start, und beschreibt die Umgebung in Echtzeit während der Fahrt.

Wichtig dabei: Bei den gezeigten Demonstrationen handelt es sich noch nicht um ein vollständig autonomes System. Die physische Bewegung des Roboters wird aktuell von einem Experten aus der Ferne überwacht und gesteuert, während Sprachinteraktion, Routenwahl und Situationsbeschreibung bereits automatisiert ablaufen.

Von der Leinenzuckung zur gesprochenen Sprache

In einer früheren Iteration reagierte der Roboterhund auf Zuckungen an der Leine, um an Kreuzungen die Richtung zu wechseln. Der neue Ansatz geht deutlich weiter.

Bevor die Führung beginnt, fragt der Roboter, wohin du möchtest. Er schlägt mögliche Routen vor, nennt die voraussichtliche Gehzeit und wartet auf deine Wahl. Unterwegs verbalisiert der Roboter die Umgebung: Er meldet, ob ein langer Korridor vor dir liegt, kündigt Hindernisse an und gibt dir eine Situationsübersicht, die ein echter Hund nicht leisten kann.

Echte Hunde verstehen bestenfalls rund 20 Befehle. Aber bei robotischen Blindenhunden kannst du GPT-4 mit Sprachbefehlen einsetzen und hast damit sehr starke Sprachfähigkeiten.
Shiqi Zhang, Associate Professor, Binghamton University

Das System kombiniert zwei Schlüsselfunktionen: die sogenannte Plan Verbalization – die Routenplanung vor Antritt des Weges – und die Scene Verbalization, also die laufende Beschreibung der Umgebung während der Führung. Laut Zhang ist Letzteres besonders wertvoll, da die Situations- und Umgebungswahrnehmung ohne Sehvermögen stark eingeschränkt ist.

Der Test: 7 blinde Teilnehmende in einem Bürokomplex

Um das System zu evaluieren, rekrutierten die Forschenden sieben rechtlich als blind anerkannte Personen im Alter zwischen 40 und 68 Jahren: zwei davon mit Erfahrung als Blindenhundhalter. In einem weitläufigen Mehrzimmer-Bürogebäude navigierte der Roboter die Testpersonen zu einem Konferenzraum. Das System fragte nach dem Ziel, präsentierte mögliche Routen und führte die Teilnehmenden anschließend Schritt für Schritt, mit laufenden Sprachhinweisen.

Jede Teilnehmerin und jeder Teilnehmer durchlief drei Varianten: minimale Sprachinteraktion, nur Umgebungsbeschreibungen während der Fahrt und schließlich das vollständige System mit Routenplanung und Echtzeit-Kommentar. Das Ergebnis der anschließenden Befragung fiel deutlich aus: Die kombinierte Variante schnitt in den Kategorien Nützlichkeit, Kommunikationskomfort und Hilfsbereitschaft am besten ab.

In einer ergänzenden Computersimulation testete das Team das System anhand von 77 Navigationsanfragen von 16 Studierenden: von direkten Formulierungen wie «Ich möchte ins Badezimmer» bis hin zu vagen Wünschen wie «Ich möchte mich hinsetzen und ausruhen.» Mit der Möglichkeit, Rückfragen zu stellen, erkannte das System das Ziel in 94,8 Prozent der Fälle korrekt. Auch gegen stark verrauschte Spracheingaben – simuliert mit fast einem von drei fehlerhaften Zeichen – zeigte sich das System robust.

Ein riesiges Versorgungsproblem im Hintergrund

Der Forschungsansatz adressiert nicht nur eine technische Lücke, sondern ein reales gesellschaftliches Problem: In den USA nutzen lediglich rund zwei Prozent der Sehbehinderten einen Blindenhund.

Der Grund liegt nicht am fehlenden Bedarf, sondern am enormen Aufwand: Die Ausbildung eines echten Führhundes dauert zwei bis drei Jahre und kostet rund 50 000 US-Dollar. Weniger als die Hälfte der Hunde schließt das Training erfolgreich ab. Ein robotischer Blindenhund könnte diese Lücke schließen oder zumindest verkleinern.

Unklar ist bislang die Kostenfrage des robotischen Blindenhundes. Zum Preis des Systems macht das Forschungsteam derzeit keine Angaben. In den USA werden jedoch selbst klassische Blindenhunde in der Regel nicht von Krankenkassen finanziert, sondern über Spenden, Stiftungen und gemeinnützige Organisationen ermöglicht.

Ein technisches Assistenzsystem dieser Art müsste daher entweder öffentlich gefördert, durch neue Versicherungsmodelle bewertet oder privat finanziert werden. Ohne entsprechende Förderprogramme dürfte ein solcher Roboter für viele Betroffene sonst kaum erschwinglich sein.

Das Forschungsteam präsentierte seine Arbeit unter dem Titel «From Woofs to Words: Towards Intelligent Robotic Guide Dogs with Verbal Communication» auf der 40th Annual AAAI Conference on Artificial Intelligence, einer der größten KI-Fachkonferenzen weltweit.

Ausblick für die Zukunft

Die nächsten Schritte sind klar definiert: Das Team plant weitere Nutzerstudien, will die Autonomie des Systems erhöhen und den Roboter für längere Strecken in Innen- wie Außenräumen tüchtig machen.

Erst wenn Wahrnehmung, Navigation und Bewegung vollständig autonom zusammenarbeiten, könnte aus dem aktuellen Forschungsprototyp ein alltagstaugliches Assistenzsystem werden.

Titelbild: Jonathan Cohen / Binghamton University

4 Personen gefällt dieser Artikel


User Avatar
User Avatar

Die Interessen sind vielfältig, gerne genieße ich einfach nur das Leben. Immer auf der Suche nach News aus den Bereichen Darts, Gaming, Filme und Serien.


News & Trends

Vom neuen iPhone bis zur Auferstehung der Mode aus den 80er-Jahren. Die Redaktion ordnet ein.

Alle anzeigen

Diese Beiträge könnten dich auch interessieren

  • News & Trends

    Roboter faltet Wäsche, packt Pakete – und improvisiert dabei

    von Kevin Hofer

  • News & Trends

    USM Haller: Die Kunst, immer wieder neu zu überraschen

    von Pia Seidel

  • Hintergrund

    Dieser Saugroboter-Test ist peinlich, Kassensturz!

    von Lorenz Keller

1 Kommentar

Avatar
later