Gemeinsam entwickeln sie Schlüsseltechnologien, die echtzeitfähiges und adaptives embedded Brain Reading ermöglichen. Dadurch sind Roboter auf Basis der Gehirnaktivitäten des Menschen nicht nur intuitiv und effektiv steuerbar. Die Systeme können zugleich menschliche Gedanken interpretieren und daraus lernen.
Roboter lassen sich mithilfe menschlicher Gehirnaktivität über sogenannte Brain-Computer-Interfaces (BCIs) steuern. Dabei kommt Elektroenzephalografie (EEG) zum Einsatz, bei der am Kopf angelegte Elektroden Potentialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Wissenschaftlerinnen und Wissenschaftlern entwickelte ganzheitliche Ansatz "embedded Brain Reading" (eBR) noch einen Schritt weiter: Gehirnaktivität kann nicht nur gemessen, sondern auch interpretiert werden. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen. Dabei setzt eBR ausschließlich auf die passive Beobachtung natürlich auftretender Gehirnaktivität und vermeidet so eine Mehrbelastung des Menschen durch die Nutzung eines BCIs. Zudem ermöglicht der innovative Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher z.B. bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.
Beim embedded Brain Reading dienen event related potentials (ERPs) im EEG als Input-Quellen, die als Reaktion auf eine interne Zustandsänderung oder einen externen Reiz entstehen. Am DFKI werden diese Potentiale genutzt, um die Interaktion zwischen Mensch und Roboter zu verbessern. Die Wissenschaftlerinnen Dr. Elsa Andrea Kirchner und Dr. Su Kyoung Kim untersuchten, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. Es zeigte sich, dass sich ERPs durch single-trial Erkennung auch unter „dual-task“-Bedingungen erfolgreich detektieren lassen, also wenn der Mensch nicht nur einer sondern mehreren Aktivitäten nachgeht. Dabei ist die Detektionsleistung umso höher, je seltener und bedeutender ein bei der Aufgabe hervorgerufener Reiz ist. Die single-trial ERP-Erkennung eignet sich insbesondere für die Online-EEG-Analyse in Echtzeit, etwa zur Steuerung eines Exoskeletts. Im Rahmen der rehabilitativen Therapie kann die ERP-Erkennung nicht nur Hinweise zu geplanten Bewegungen, sondern z.B. auch über den Aufmerksamkeitszustand eines Patienten geben.
Zu den ereigniskorrelierten Potenzialen gehört das sogenannte error-related potential. Wie sich dieses für die Mensch-Roboter-Interaktion gewinnbringend einsetzten lässt, zeigen die Wissenschaftler des Robotics Innovation Center und der Universität Bremen mit dem am DFKI entwickelten Verfahren des Maschinellen Lernens. Der Roboter ist dabei in der Lage, gleichzeitig zu lernen, die Gesten des Menschen zu unterscheiden und den von ihm ausführbaren Aktionen zuzuordnen. Ob diese Zuordnung richtig oder falsch war, erfährt er anhand der EEG-Messung beim Menschen, durch die er im Falle einer fehlerhaften Aktion ein negatives Feedback, das fehlerkorrelierte Potential, erhält. Dies entlastet den Menschen in der Interaktion, da er die Rückmeldung nicht bewusst an den Roboter geben muss, sondern diese dank eBR bereits auf der unterbewussten Ebene bei ihm abgegriffen wird. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt. Bei der Rehabilitation mit Exoskeletten ließe sich das Error-Potential z.B. nutzen, um Erkenntnisse über die Akzeptanz durch den Nutzer zu gewinnen.
COMPAMED.de; Quelle: Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI