Roboterarm wird mit der Kraft der Gedanken bewegt

Roboterarme sollen Querschnittgelähmten mehr Freiheit geben.
Roboterarme sollen Querschnittgelähmten mehr Freiheit geben.Baustädter – TU Graz
An der TU Graz ist es gelungen, einen Roboterarm durch Gedanken zu steuern. Die Technologie soll Querschnittgelähmten mehr Bewegungsfreiheit geben.

Patienten mit schweren Rückenmarksverletzungen stehen vor einem gewaltigen Problem: Sie können etwa ihre Hände und Arme nicht mehr bewegen. Im Fokus der Forschungen von Gernot Müller-Putz steht, Querschnittgelähmten - also Personen, deren Rückenmark im Halsbereich verletzt wurde - mithilfe von Gehirn-Computer-Schnittstellen (BCI) wieder mehr Handlungsfähigkeit zu geben.

Hier lesen: Was der Elefantenrüssel mit Robotern zu tun hat

Die Kraft der Gedanken

"Die bloße Vorstellung, einen Arm zu heben, ändert messbar die elektrische Hirnaktivität”, erklärt Müller-Putz. BCI beruhen auf der Idee, hirnelektrische Signale, die von der Schädeloberfläche aus gemessen werden, in technische Steuerungssignale umzuwandeln. Gernot Müller-Putz beschäftigt sich seit mehr als 20 Jahren mit der Kommunikation zwischen Hirnund Computer. Das Ganze soll mithilfe von bis zu 64 Elektroden, die die Hirnströme "von außen" messen - und nicht mit Chips, die ins Gehirnimplantiert werden müssen - funktionieren, wie der Forscher gegenüber der APA erläutert.

Hier lesen: Drohnenbilder machen "durstige" Bäume erkennbar

Hirnsignale in Steuersignale umwandeln

Sein Team versucht in ausgeklügelten Experimenten entsprechende Hirnsignale über ein Elektroenzephalogramm (EEG) zu registrieren, zu verstärken, mit computergestützten Analysen auszuwerten und über Machine Learning in Steuersignale umzuwandeln. Damit sollen dann etwa ein Cursor am Computer bedient oder auch ein robotischer Arm - der für den Patienten Bewegungshandlungen ausführt - in Bewegung gesetzt werden.

Hier lesen: Platz für 5 Millionen Menschen in futuristischer Stadt

Hirnaktivität von Testpersonen aufgezeichnet

Die Testpersonen machten im Grazer Labor zuerst einfache Wischbewegungen mit der Hand. Ihre Hirnaktivität wurde aufgezeichnet und ausgewertet. Die Forschenden konnten daraus ein Modell erstellen, das die Bewegung mit dem EEG in Verbindung bringt.

Mittlerweile kann das Team die Bewegungs-Intention der Testperson aus dem EEG decodieren. Als essenziell stellte sich die Hand-Augen-Koordination dar: "Das heißt, dass die Benutzer mit ihren Augen die Bewegungsbahn des robotischen Arms verfolgen konnten. Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen", berichtet der Grazer Teamleiter.

Decodierung funktioniert noch nicht zu 100 Prozent

Inzwischen haben die Forschenden mehrere BCI entwickelt: Ein BCI kann erkennen, ob man mit einer Bewegung starten möchte, so Müller-Putz. Noch funktioniert die Decodierung der Signale nicht zu 100 Prozent: Ein weiteres BCI erkennt Fehler, also nicht erwünschte Bewegungen des Roboterarms: "Wenn die Person die falsche Bewegung sieht, können wir die Fehlerantwort des Gehirns aus dem EEG ablesen", sagt der BCI-Experte. Das BCI stoppt die Bewegung des Roboterarmsund korrigiert sie.

"Die Testpersonen können die Bewegung des Roboterarmes spüren", freute sich Müller-Putz über einen weiteren Fortschritt. Möglich wird das durch Vibrationsgeber. Diese kleben am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach. Künftig sollen damit auch komplett Querschnittgelähmte Bewegungen nachempfinden können. "Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen", erläutert Müller-Putz. 

CommentCreated with Sketch. Jetzt kommentieren Arrow-RightCreated with Sketch.
Nav-Account sp Time| Akt:
Science

ThemaCreated with Sketch.Weiterlesen