Der Roboterchirurg wird Sie jetzt sehen

Dr. Danyal Fer saß einige Fuß von einem langarmigen Roboter entfernt auf einem Hocker und schlang seine Finger um zwei Metallgriffe in der Nähe seiner Brust.

Während er die Griffe bewegte – auf und ab, links und rechts – ahmte der Roboter jede kleine Bewegung mit seinen eigenen zwei Armen nach. Dann, als er Daumen und Zeigefinger zusammendrückte, tat eine der winzigen Krallen des Roboters dasselbe. So setzen Chirurgen wie Dr. Fer seit langem Roboter ein, wenn sie Patienten operieren. Sie können einem Patienten eine Prostata entziehen, während sie an einer Computerkonsole im Raum sitzen.

Nach dieser kurzen Demonstration zeigten Dr. Fer und seine Kollegen an der University of California in Berkeley, wie sie hoffen, den Stand der Technik voranzutreiben. Dr. Fer ließ die Griffe los und eine neue Art von Computersoftware übernahm. Als er und die anderen Forscher zuschauten, begann sich der Roboter ganz von selbst zu bewegen.

Mit einer Klaue hob die Maschine einen winzigen Plastikring von einem ebenso kleinen Stift auf dem Tisch, führte den Ring von einer Klaue zur anderen, bewegte ihn über den Tisch und hakte ihn vorsichtig an einen neuen Stift. Dann tat der Roboter dasselbe mit mehreren weiteren Ringen und erledigte die Aufgabe so schnell wie unter der Anleitung von Dr. Fer.

Die Trainingsübung war ursprünglich für Menschen konzipiert; Durch das Bewegen der Ringe von Stift zu Stift lernen Chirurgen, Roboter wie den in Berkeley zu bedienen. Laut einem neuen Forschungsbericht des Berkeley-Teams kann ein automatisierter Roboter, der den Test durchführt, einen Menschen in Bezug auf Geschicklichkeit, Präzision und Geschwindigkeit erreichen oder sogar übertreffen.

Das Projekt ist Teil einer viel umfassenderen Anstrengung, künstliche Intelligenz in den Operationssaal zu bringen. Mit vielen der gleichen Technologien, die selbstfahrende Autos, autonome Drohnen und Lagerroboter unterstützen, arbeiten die Forscher auch daran, chirurgische Roboter zu automatisieren. Diese Methoden sind noch weit vom täglichen Gebrauch entfernt, aber der Fortschritt beschleunigt sich.

“Es ist eine aufregende Zeit”, sagte Russell Taylor, Professor an der Johns Hopkins University und ehemaliger IBM-Forscher, der in der akademischen Welt als Vater der Roboterchirurgie bekannt ist. “Hier habe ich gehofft, dass wir vor 20 Jahren sein würden.”

Ziel ist es nicht, Chirurgen aus dem Operationssaal zu entfernen, sondern ihre Belastung zu verringern und möglicherweise sogar die Erfolgsquote zu erhöhen – wo Verbesserungspotenzial besteht -, indem bestimmte Operationsphasen automatisiert werden.

Roboter können bei einigen chirurgischen Aufgaben, wie dem Einsetzen eines Stifts in einen Knochen, bereits die Genauigkeit des Menschen überschreiten (eine besonders riskante Aufgabe bei Knie- und Hüftprothesen). Die Hoffnung ist, dass automatisierte Roboter andere Aufgaben wie Einschnitte oder Nähen genauer ausführen und die Risiken verringern können, die mit überarbeiteten Chirurgen verbunden sind.

Während eines kürzlichen Telefongesprächs sagte Greg Hager, ein Informatiker bei Johns Hopkins, dass die chirurgische Automatisierung ähnlich wie die Autopilot-Software voranschreiten würde, die seinen Tesla während des Sprechens über den New Jersey Turnpike führte. Das Auto fuhr alleine, sagte er, aber seine Frau hatte immer noch die Hände am Lenkrad, sollte etwas schief gehen. Und sie würde übernehmen, wenn es Zeit war, die Autobahn zu verlassen.

“Wir können den gesamten Prozess nicht automatisieren, zumindest nicht ohne menschliches Versehen”, sagte er. “Aber wir können damit beginnen, Automatisierungstools zu entwickeln, die das Leben eines Chirurgen ein wenig erleichtern.”

Vor fünf Jahren haben Forscher des Nationalen Gesundheitssystems für Kinder in Washington, DC, einen Roboter entwickelt, mit dem der Darm eines Schweins während der Operation automatisch vernäht werden kann. Es war ein bemerkenswerter Schritt in Richtung der von Dr. Hager ins Auge gefassten Zukunft. Aber es kam mit einem Sternchen: Die Forscher hatten winzige Markierungen in den Darm des Schweins implantiert, die ein Licht im nahen Infrarot emittierten und dabei halfen, die Bewegungen des Roboters zu steuern.

Die Methode ist alles andere als praktisch, da die Marker nicht leicht implantiert oder entfernt werden können. In den letzten Jahren haben Forscher der künstlichen Intelligenz die Leistung des Computer-Sehens erheblich verbessert, wodurch Roboter ohne solche Marker chirurgische Aufgaben selbst ausführen können.

Die Veränderung wird durch sogenannte neuronale Netze vorangetrieben, mathematische Systeme, die durch die Analyse großer Datenmengen Fähigkeiten erlernen können. Durch die Analyse von Tausenden von Katzenfotos kann beispielsweise ein neuronales Netzwerk lernen, eine Katze zu erkennen. In ähnlicher Weise kann ein neuronales Netzwerk aus Bildern lernen, die von Operationsrobotern aufgenommen wurden.

Chirurgische Roboter sind mit Kameras ausgestattet, die dreidimensionale Videos von jeder Operation aufzeichnen. Das Video wird in einen Sucher gestreamt, in den Chirurgen blicken, während sie die Operation leiten und aus der Sicht des Roboters beobachten.

Danach bieten diese Bilder aber auch eine detaillierte Roadmap, die zeigt, wie Operationen durchgeführt werden. Sie können neuen Chirurgen helfen, den Umgang mit diesen Robotern zu verstehen, und sie können Roboter darin schulen, Aufgaben selbst zu erledigen. Durch die Analyse von Bildern, die zeigen, wie ein Chirurg den Roboter führt, kann ein neuronales Netzwerk dieselben Fähigkeiten erlernen.

Auf diese Weise haben die Berkeley-Forscher daran gearbeitet, ihren Roboter zu automatisieren, der auf dem da Vinci Surgical System basiert, einer zweiarmigen Maschine, mit der Chirurgen jährlich mehr als eine Million Eingriffe durchführen können. Dr. Fer und seine Kollegen sammeln Bilder des Roboters, der die Kunststoffringe unter menschlicher Kontrolle bewegt. Dann lernt ihr System aus diesen Bildern, indem es die besten Möglichkeiten aufzeigt, die Ringe zu greifen, sie zwischen Krallen zu führen und sie auf neue Stifte zu bewegen.

Dieser Vorgang war jedoch mit einem eigenen Sternchen versehen. Wenn das System dem Roboter mitteilte, wohin er sich bewegen soll, verfehlte der Roboter die Stelle oft um Millimeter. Über Monate und Jahre hinweg haben sich die vielen Metallkabel in den Doppelarmen des Roboters auf kleine Weise gedehnt und gebogen, sodass seine Bewegungen nicht so präzise waren, wie sie sein mussten.

Menschliche Bediener könnten diese Verschiebung unbewusst kompensieren. Aber das automatisierte System konnte nicht. Dies ist häufig das Problem bei der automatisierten Technologie: Sie hat Probleme, mit Veränderungen und Unsicherheiten umzugehen. Autonome Fahrzeuge sind noch lange nicht weit verbreitet, da sie noch nicht flink genug sind, um das Chaos der Alltagswelt zu bewältigen.

Das Berkeley-Team beschloss, ein neues neuronales Netzwerk aufzubauen, das die Fehler des Roboters analysierte und erfuhr, wie viel Präzision er mit jedem Tag verlor. “Es lernt, wie sich die Gelenke des Roboters im Laufe der Zeit entwickeln”, sagte Brijen Thananjeyan, ein Doktorand im Team. Sobald das automatisierte System diese Änderung berücksichtigen konnte, konnte der Roboter die Kunststoffringe greifen und bewegen, was der Leistung menschlicher Bediener entsprach.

Andere Labore versuchen andere Ansätze. Axel Krieger, ein Johns Hopkins-Forscher, der 2016 Teil des Schweine-Nahtprojekts war, arbeitet an der Automatisierung einer neuen Art von Roboterarm, der weniger bewegliche Teile aufweist und sich konstanter verhält als der Robotertyp, der vom Berkeley-Team verwendet wird . Forscher am Worcester Polytechnic Institute entwickeln Methoden für Maschinen, mit denen sie die Hände von Chirurgen sorgfältig führen können, wenn sie bestimmte Aufgaben ausführen, z. B. das Einführen einer Nadel für eine Krebsbiopsie oder das Einbrennen in das Gehirn, um einen Tumor zu entfernen.

“Es ist wie bei einem Auto, bei dem die Spurverfolgung autonom ist, man aber trotzdem das Gas und die Bremse kontrolliert”, sagte Greg Fischer, einer der Worcester-Forscher.

Wissenschaftler stellen fest, dass viele Hindernisse vor uns liegen. Das Bewegen von Plastikstiften ist eine Sache; Fleisch schneiden, bewegen und nähen ist eine andere. “Was passiert, wenn sich der Kamerawinkel ändert?” sagte Ann Majewicz Fey, eine außerordentliche Professorin an der Universität von Texas, Austin. “Was passiert, wenn Rauch in die Quere kommt?”

Auf absehbare Zeit wird die Automatisierung etwas sein, das mit Chirurgen zusammenarbeitet, anstatt sie zu ersetzen. Aber selbst das könnte tiefgreifende Auswirkungen haben, sagte Dr. Fer. Zum Beispiel könnten Ärzte Operationen über Entfernungen durchführen, die weit über die Breite des Operationssaals hinausgehen – vielleicht aus einer Entfernung von mehreren Kilometern oder mehr, um verwundeten Soldaten auf entfernten Schlachtfeldern zu helfen.

Die Signalverzögerung ist zu groß, um dies derzeit zu ermöglichen. Aber wenn ein Roboter zumindest einige der Aufgaben alleine erledigen könnte, könnte eine Fernoperation rentabel werden, sagte Dr. Fer: „Sie könnten einen Plan auf hoher Ebene senden und dann könnte der Roboter ihn ausführen.“

Dieselbe Technologie wäre für die Fernoperation über noch größere Entfernungen unerlässlich. “Wenn wir Menschen auf dem Mond operieren”, sagte er, “werden Chirurgen völlig neue Werkzeuge benötigen.”

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.