Projektbeschreibung

Roboter­bewegungen vorhersehen (Intendicate)

Intendicate – An intuitive and iconic method to indicate robotic motion

Die meisten Industrieroboter vermitteln dem Menschen nur sehr wenig bis gar keine Information über ihre zukünftigen Bewegungen. Das macht eine flüssige Mensch-Roboter-Koordination praktisch unmöglich und stellt zudem ein Sicherheitsrisiko dar. Dieses Problem zu beheben war Ziel des Projekts Intendicate. Wir wollten eine Methode entwickeln, mit der Roboter ihre Bewegungsplanung auf eine intuitiv verständliche Weise kommunizieren können. Als Inspiration diente ein bestimmter Aspekt der zwischenmenschlichen Interaktion: Wir Menschen verfolgen die Blicke anderer und erkennen so, worauf deren Aufmerksamkeit gerichtet ist. Dieses Verhalten ist tief in uns verankert und passiert, ohne dass wir es lernen müssen. Augenbewegungen triggern unsere Aufmerksamkeit. Die Forschungsfrage lautete also: Wie können wir diesen Aspekt natürlicher Interaktion auf die Mensch-Roboter-Interaktion übertragen?

In Zusammenarbeit mit der Humboldt Universität zu Berlin und der Agentur why do birds erforschten und entwickelten wir eine Lösung, die im Wesentlichen aus einem Paar stark abstrahierter Augen bestand, die als Animation auf einem am Roboter montierten Display gezeigt wurden. Sowohl die Formgebung als auch die Animation sollten menschähnlich genug sein, um Aufmerksamkeit zu triggern, jedoch nicht so naturalistisch, dass sie in Zusammenhang mit dem Roboter gruselig oder komisch wirken würden. Verschiedene Designs wurden entwickelt und in einer Reihe von Studien getestet. Das Ergebnis ist ein Demonstrator, der in der letzten Abschlussevaluation einen fundierten Proof of Concept erbringen konnte: Menschen konnten die Bewegungen des Roboters früher und mit weniger Mühe vorhersagen, wenn sie von der entwickelten Lösung unterstützt wurden.

Für einen Eindruck zum Gesamtablauf des Vorhabens bitte folgendem Link folgen (Weiterleitung zu einer pdf-Datei)

Das Konsortium

  • Firmenlogo von Humboldt Universität zu Berlin
  • Firmenlogo von why do birds GmbH

Ansprechpartner

Foto von Paul Schweidler

M.Sc.

Paul Schweidler

schweidler@human-factors.de

Zugehörige Publikationen

Onnasch, L., Schweidler, P., & Schmidt, H. (2023). The potential of robot eyes as predictive cues in HRI—an eye-tracking study. Frontiers in Robotics and AI, 10, 1178433. https://doi.org/10.3389/frobt.2023.1178433

Onnasch, L., Schweidler, P., & Wieser, M. (2023, March). Effects of predictive robot eyes on trust and task performance in an industrial cooperation task. In Companion of the 2023 ACM/IEEE International Conference on Human-Robot Interaction (pp. 442-446). https://doi.org/10.1145/3568294.3580123

Schweidler, P., & Onnasch, L. Using Functionally Anthropomorphic Eyes to Indicate Robotic Motion. In 1st International Conference on Hybrid Societies 2023. Download (PDF)

Onnasch, L., Kostadinova, E., & Schweidler, P. (2022). Humans can’t resist robot eyes–reflexive cueing with pseudo-social stimuli. Frontiers in Robotics and AI, 72. https://doi.org/10.3389/frobt.2022.848295

Onnasch, L., Schmidt, H., & Schweidler, P. (2022, September). Effects of predictive robot eyes on attentional processes in HRI. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting (Vol. 66, No. 1, pp. 549-549). Sage CA: Los Angeles, CA: SAGE Publications.

Mehr erkunden

  • Startseite

    Verschaffen Sie sich einen Gesamtüberblick.

  • Leistungen

    Erfahren Sie mehr über unser Angebot.

  • Schwerpunkte

    Entdecken Sie die Vielfalt unserer Expertise.

  • Aktuelles

    Informieren Sie sich über Projekt­fortschritte.

  • Unternehmen

    Lernen Sie die Firma und das Team kennen.