Wissenschaft

Eine Revolution in der Prothetik lässt Menschen mit Amputationen wieder fühlen

Eine neue Generation von künstlichen Gliedmaßen erlaubt es den Patienten, diese mit ihren Gedanken zu steuern. Mittwoch, 5 September

Von Josh Fischmann

Irgendetwas fehlt. Jeder, dem schon einmal ein Arm oder ein Bein amputiert wurde, weiß das. Es geht dabei um mehr, als nur um das verlorene Körperteil. Verlorene Gliedmaßen können jedoch ersetzt werden. Durch Prothesen aus Metall und Kunststoff, mit der Fähigkeit zu drehen, zu greifen und zu laufen. Von außen sehen die Gliedmaßen absolut lebensecht aus, während sich in ihrem Inneren hochentwickelte Maschinen verbergen, die von fortschrittlichen Computerchips gesteuert werden.

Und doch sind diese Gliedmaßen nur Werkzeuge und nicht etwa ein Teil der Patienten selbst, da sie nicht empfindlich für Reize sind und nicht unmittelbar auf die Absichten des Patienten reagieren.

Diesen Mangel an Gefühl und Kontrolle erlebte auch Dennis Aabo Sørensen, ein 36-jähriger Mann aus Dänemark. Seit er, vor fast einem Jahrzehnt, seine linke Hand bei einer Feuerwerksexplosion verlor, konnte er das was er anfasste nur danach beurteilen, wie es aussah.

Doch das änderte sich mit dem Tag an dem Wissenschaftler erfolgreich Drucksensoren in den Fingern von Sørensens künstlicher Hand mit den Sinnesnerven in seinem Oberarm verbunden hatten. Wenn er jetzt einen Holzblock packte, sprachen seine Nerven an. "Ich konnte runde Sachen spüren sowie weiche und harte Sachen", sagte er. „Es war unglaublich etwas zu fühlen, das man so viele Jahre nicht gespürt hat.“

Die Errungenschaft geht über die psychologische Bestätigung hinaus: Experimente zeigen, dass sensorisches Feedback die Fähigkeit des Patienten, seine Prothese zu kontrollieren enorm verbessert – sogar das Ziehen von Stielen aus Früchten ist möglich.

Riesige Schritte

Sørensens Fall ist nur eines von mehreren Projekten, die künstlichen Gliedmaßen echtes Gefühl verleihen sollen. Forscher an der Case Western Reserve University in Cleveland, Ohio haben die Empfindungsfähigkeit durch eine künstliche Hand wiederhergestellt, die nicht nur Druck, sondern auch Textur übermittelt.

Am Rehabilitation Institute of Chicago haben Wissenschaftler eines der größten Hindernisse in der Prothetik beseitigt. Das Ergebnis ist ein gedankengesteuertes Bein, welches Treppen steigen kann und auf die Nervensignale von der Amputationsstelle am Bein des Patienten reagiert und auf diese Weise nahtlos zwischen gehen und sitzen wechseln kann. Außerdem haben die Forscher etwas entwickelt, was sie als Mustererkennung bezeichnen. Durch dieses Vefahren können die Prothesen „lernen“, Nervensignale des Patienten in Realzeit zu interpretieren und unmittelbar auf seine Absichten zu reagieren.

„Die Leute können die Gliedmaße als etwas betrachten, das tatsächlich Teil von ihnen ist“, sagte Paul Marasco, Neurowissenschaftler am Lerner Research Institute der Cleveland Clinic, der auf dem Gebiet der Sensibilität und Prothetik arbeitet. „Wir erreichen eine kritische Masse der Forschung und das nicht nur im Bezug auf vereinzelte Ergebnisse. Ich denke daher, dass das in fünf bis zehn Jahren wirklich passieren wird.“

Die Arbeit ist noch experimentell, wie die Wissenschaftler eilig betonen, und es muss noch weitere Fortschritte geben, bevor diese Prothesen für den täglichen Gebrauch bereit sind. Zum einen müssen die Verbindungen drahtlos werden, weil niemand gerne mit Drähten unter der Haut nach Hause geht. „Aber wenn es perfektioniert ist, wird es gewaltig.“ sagt Robert Lipschutz, ein orthopädischer Techniker am Rehabilitation Institute of Chicago.

Der Empfindungs-Handschuh

Sørensen hatte zuvor schon eine künstliche Hand, die sich aufgrund von Muskelkontraktionen an Amputationsstelle öffnete und schloss. Um auch sensorisches Feedback zu liefern, haben Silvestro Micera und seine Kollegen an der Scuola Superiore Sant'Anna in Italien und der École Polytechnique Fédérale de Lausanne in der Schweiz Sensoren mit den mechanische Sehnen der prothetischen Finger verknüpft. Diese Sensoren erzeugen elektrische Signale, wenn die Sehnen gegen ein Objekt gedrückt werden. Die Signale werden an einen Computer gesendet, der sie durch die Drähte in Sørensens Haut weiterleitet. Die Drähte enden wiederum an Elektroden auf den sensorischen Nervenenden der Amputationsstelle, die früher zu seiner Hand führten.

Einen Monat lang durchlief Sørensen einen regelrechten Parkour von Aufgaben, welche die Herausforderungen des täglichen Lebens simulieren sollten – greifen, drehen, drücken, kneifen – Dinge, die Menschen mit zwei Händen ohne viel nachdenken zu müssen ausführen, die Sørensen jedoch neun Jahre lang nicht mehr realisieren konnte. Als Reaktion darauf fühlte er unterschiedliche Grade eines Kribbelns, abhängig davon, wieviel Druck er brauchte, um das Objekt zu halten. Auf diese Weise konnte er die verschiedenen Arten des Kribbelns allmählich mit unterschiedlichen Eigenschaften, wie Härte, Weichheit und Rundheit, assoziieren.

Während Micera und seine Kollegen mit Sørensen arbeiteten, entwickelten Dustin Tyler und sein Team der Case Western Reserve und des Cleveland Veteran Affairs Medical Center ein ähnliches System. Bei einem wissenschaftlichen Treffen im November 2013 vermeldete Tyler einen langfristigen Erfolg bei zwei Patienten.

„Die Langlebigkeit beweist, dass dieses System wirklich robust ist“, sagte er. „Wir haben außerdem Elektroden an acht verschiedenen Stellen auf den Patientennerven platziert. Ein Patient spürt Empfindungen von acht verschiedenen Teilen seiner Hand: dem Daumen, einigen Fingern, der Rückseite der Hand und der Handfläche. Wir können die Größe dieser Teile anpassen, indem wir das Signal modulieren. Auf diese Weise haben wir praktisch die gesamte Hand wiederhergestellt.“

Direktes sensorisches Feedback von einem Objekt zu empfangen verändert die Art, wie der Patient mit der Welt interagiert. Ohne den Tastsinn müssen Amputierte ihre prothetischen Hände sehr genau beobachten, um z.B. zu erkennen, ob sie einen Pappbecher zu hart greifen. Es gelingt nicht immer die Bewegungen gekonnt umzusetzen. Einige Patienten können begrenzte Kontrolle erlangen, indem sie auf die sich ändernden Geräusche der Motoren in der Prothese achten, wenn diese auf Wiederstand stößt.

Mithilfe der direkten sensorischen Rückkopplung stellte Tyler fest, „dass unsere Patienten sogar die Stiele von Kirschen zupfen können. Das war wirklich ein beeindruckender Anblick. Ohne die Tastsensoren würden sie zu fest zudrücken und die Früchte zerquetschen. Oder sie würden nicht fest genug zugreifen und die Stiele würden ihnen durch ihre Finger rutschen.“

Tylers Gruppe versuchte, die durch die Fingersensoren generierten elektrischen Signale so zu modulieren, dass sie Patienten ermöglichten neben Druck auch verschiedene Texturen zu erkennen, wie rau oder glatt. „Wir sind der Ansicht, dass wir das gesamte Spektrum der Empfindungen abdecken können.“ sagt Tyler. „Das Gehirn will das. Es sucht danach.“

Er denkt, dass das System irgendwann vollständig unter der Haut implantiert sein wird und drahtlos mit den künstlichen Gliedmaßen kommuniziert, wie ein Bluetooth-Headset mit Smartphones.

Gedankengesteuert

Damit die Prothesen sich noch mehr wie natürliche Teile des Körpers ihrer Träger anfühlen, haben Ärzte und Ingenieure am Rehabilitation Institute of Chicago künstliche Gliedmaßen entwickelt, die unmittelbar auf die Gedanken der Patienten reagieren.

Computerchips in der Prothese sind mit Sensoren verbunden, die motorische Signale von den Nervenenden an der Amputationsstelle des Patienten empfangen. Auf diese Weise können die Nervensignale, die z.B. für das Öffnen der Hand oder die Drehung des Handgelenks zuständig waren, an die Prothese weitergeleitet werden. Keine Drähte in der Haut. Mit einer Technik namens TMR (targeted muscle reinnervation) wurden die Nerven von einem Chirurgen zunächst zu den großen Muskeln am Ende der Amputationsstelle umgeleitet. Muskeln sind elektrisch aktiv, sie wirken als Verstärker für die Nerven-Signale, damit die Sensoren der Prothese reagieren und ein Signal an Motoren senden können, die wiederum die Hand bewegen.

Bis vor kurzem konnten diese Signale nur sequenziell interpretiert werden - Handgelenk drehen, dann Hand öffnen - wodurch nicht die flüssigen, koordinierten Bewegungen eines echten Armes nachgeahmt werden konnten. Inzwischen können verfeinerte Computer-Algorithmen in den Chips Muster erkennen und Verknüpfungen von einer Bewegung zur nächsten herstellen. Die Ergebnisse sind flüssiger und erfordern weniger bewusste Planung; ein Patient muss nur daran denken und die Gliedmaße bewegt sich.

Jeden Morgen legt Amanda Kitts, die in Florida lebt, ihre Prothese an. Ihr musste vor 8 Jahren ein Arm amputiert werden. "Ich drehe das Handgelenk einmal vollständig, mache noch ein paar andere Dinge, und dann bin ich bereit," sagt sie. „Früher musste ich viel mehr darüber nachdenken, was ich mache.“

Diese bahnbrechende Technologie wurde nun auf eines der heikelsten Probleme der Prothetik angewendet: ein Bein zum Aufstehen zu bringen. Die Position des Knies und Knöchels und die Belastung der Gelenke unterscheidet sich im Sitzen radikal von der Position und Belastung beim Gehen. Hersteller von künstlichen Beinen greifen bisher noch auf einen manuellen Schalter an ihre Prothesen zurück, der es den Benutzer erlaubt, zwischen sitzender und aufrecht stehender Position zu wechseln – das ist himmelweit entfernt von einer Bewegung durch Gedanken.

Im Herbst 2013 konnte Levi Hargrove, Leiter des Dezernats für Neurotechnik am Rehabilitation Institute of Chicago, Menschen mit Amputationen ein denkendes Bein geben - mit dem sie sogar Treppen steigen konnten. Sensoren aus der Robotik erkennen Geschwindigkeitswechsel, Ausrichtung und Gewicht und leiten diese Informationen an die eingebauten Computerchips weiter, was dem Bein hilft, auf Unterschiede im Gelände zu reagieren. Zur Vermeidung des umständlichen mechanischen Schalters und um dem Bein zu ermöglichen, stattdessen auf die Absichten des Benutzers zu reagieren, wurden die motorische Nerven, die früher die Bewegungen des Knöchels gesteuert haben, in die Oberschenkelmuskulatur umgeleitet. Auf diese Weise wurde die Tatsache genutzt, dass die Oberschenkelmuskulatur während des normalen Gehens aktiviert wird, wenn sich auch die Knöchelmuskeln bewegen.

„Wir sind in der Lage diese Muster, also die Signale vom Oberschenkelmuskel zu benutzen, um vorherzusagen was die Knöchelmuskeln tun werden.“, so Hargrove. Eine Anspannung des Oberschenkels sendet beispielsweise ein Signal an das Knie, sich zu strecken und an den Knöchel, den Fuß senkrecht zum Bein zu positionieren: das heißt, aufzustehen. Mustererkennungssoftware glättet die Bewegungen, so dass die Patienten nicht stürzen. Ein anderer Grad Spannung im Oberschenkel beugt das Bein, um eine Treppe hinaufzusteigen.

Die Prothetik macht gerade einen riesigen Schritt nach vorne. Dieses Mal mit Gefühl.

Der Artikel wurde erstmals 2014 in englischer Sprache auf NationalGeographic.com veröffentlicht.

Wei­ter­le­sen