Automatisierung: KI beschleunigt die Entwicklung autonomer Arbeitsroboter massiv
Der Roboter von Anybotics kann eigenständig das Werk inspizieren und auf Probleme aufmerksam machen.
Foto: AnyboticsZürich. Der US-Roboterhersteller Boston Dynamics ist auch außerhalb der Ingenieursszene einem Millionenpublikum bekannt. Dafür sorgt unter anderem der vierbeinige Robohund „Spot“: Videos, in denen die Roboter synchron tanzen, gingen in den sozialen Netzwerken viral. Spot gilt als Paradebeispiel, was Roboter heute können.
Von einer breiten Öffentlichkeit weniger bemerkt, dafür von der Fachwelt umso mehr, hat sich in den vergangenen Jahren ein Konkurrent herangepirscht: „Anymal“, ein vierbeiniger Laufroboter des Züricher Start-ups Anybotics.
CEO Péter Fankhauser hat Anybotics zusammen mit Ingenieurskollegen von der ETH Zürich 2016 gegründet – im selben Jahr, in dem Boston Dynamics die erste Version seines Robohundes vorgestellt hat. Inzwischen kommen sowohl „Spot“ als auch „Anymal“ für Inspektionen in Industrieanlagen zum Einsatz.
„Heute können wir mit Stolz sagen: Wir sind auf Augenhöhe“, sagt ETH-Professor und Mitgründer Roland Siegwart. Entscheidend dafür, dass ein anfangs kleines Team von Ingenieuren und Software-Entwicklern mehrere Jahre Entwicklungsvorsprung von Boston Dynamics aufgeholt hat, war eine Form von Künstlicher Intelligenz (KI) oder ganz präzise: Deep-Learning-Algorithmen.
KI sei die Basistechnologie, um Inspektionslösungen zu bauen, die menschliche Sinnesorgane übertreffen können, bestätigt Anybotics-CEO Fankhauser: „Ohne Künstliche Intelligenz kann die Automatisierung nicht voranschreiten.“
Komplexes Zusammenspiel von Motoren und Sensoren
Die Weiterentwicklung autonomer Roboter steht stellvertretend für den Trend, dass KI-Anwendungen eher menschenähnlich agieren. Den Durchbruch erlangte die Technologie noch mit der Lösung von Problemen, die für Menschen kaum zu bewältigen sind, etwa der Verarbeitung großer Datenmengen. „Heute kann ein Computer viel besser Schach spielen als der Mensch, weil er in der Lage ist, viel mehr Züge im Voraus zu planen“, sagt Siegwart.
Doch zunehmend verlagert sich die Forschung dahin, Abläufe zu trainieren, die Lebewesen intuitiv beherrschen. „Wenn ein Fohlen auf die Welt kommt, kann es bereits laufen“, führt Siegwart ein Beispiel an.
Für einen Roboter ist der Lernprozess ungleich komplexer, ein Zusammenspiel von Motoren, Sensoren, Kameras und der radarähnlichen Lidar-Technologie. Erst das exponentielle Wachstum bei der Rechenleistung, kombiniert mit Fortschritten bei Deep-Learning-Algorithmen, brachte hier den Durchbruch.
Eine große Herausforderung war es für Anybotics schon, dem Roboterhund das Laufen auf unebenem Untergrund oder das Treppensteigen beizubringen. Daher nutzt das Unternehmen Lernalgorithmen, die als künstliche neuronale Netze aufgebaut sind.
Der Inspektionsroboter kann auch höher gelegene Bereiche des Werksgeländes erreichen.
Foto: AnyboticsDiese von den Nervenzellenverbindungen im menschlichen Gehirn inspirierten Berechnungsmodelle ermöglichen es dem Roboter, komplexe Bewegungsabläufe millionenfach virtuell zu trainieren. Damit sparte Anybotics Tausende Übungsstunden im Livebetrieb. „Der Einsatz von Deep-Learning-Algorithmen in der Robotik ist noch nicht Standard“, sagt ETH-Wissenschaftler Siegwart. Doch das Potenzial sei riesig.
Was heute bereits möglich ist, zeigen nicht zuletzt eine Reihe von Start-ups, die aus dem ETH-Labor für Autonome Systeme von Professor Siegwart hervorgegangen sind.
- So hat Sevensense Robotics „Augen und Gehirn“ für autonome Roboter entwickelt. Das ermöglicht etwa einem Putzroboter, durch ein gut gefülltes Kaufhaus zu navigieren. Gianluca Cesari, Co-Gründer von Sevensense, sagt: „Unsere Software hilft Robotern dabei, herauszufinden, wo sie sich in einem Raum befinden, was um sie herum geschieht und wie sie optimal von einem Startpunkt zu einem definierten Ziel finden.“
- Der Wachroboter von Ascento patrouilliert eigenständig auf weitläufigen Industriegrundstücken, etwa der Schweizerischen Bundesbahn. Er kann Menschen identifizieren und überprüfen, ob diese sich auf dem Gelände aufhalten dürfen.
- Voliro wiederum entwickelt eine Drohne, die auf festgelegten Routen durch Industrieanlagen fliegt und in großer Höhe Messungen vornehmen kann.
Die technologischen Fortschritte bei KI, insbesondere bei Deep-Learning-Algorithmen, beflügeln die Entwicklung einer völlig neuen Robotergeneration, beobachtet auch Christian Noske. Er ist Partner bei dem Venture-Capital-Investor NGP Capital, analysiert und investiert in Roboterlösungen für die Industrie. Er sagt: „Industrieroboter waren lange Zeit ausschließlich ein Thema für große Konzerne.“
Die Autobauer haben beispielsweise mit Robotern ihre Produktionsstraßen so stark automatisiert, dass der Mensch bei vielen Prozessschritten nicht eingreifen muss, ja gar nicht eingreifen darf. Doch das lohnt sich nur im großen Stil. Hier liege der fundamentale Unterschied zu der neuen Generation autonomer Roboter: „Sie sind für die Arbeit in Umgebungen ausgelegt, in denen auch Menschen mitarbeiten.“ Die Maschinen könnten damit in einem breiteren Kreis von Unternehmen eingesetzt werden. „Das spricht Kunden an, die zum ersten Mal einen Roboter kaufen“, sagt Noske.
Simpel zu steuern wie ein iPhone
CEO Fankhauser ist überzeugt: „In Zukunft können autonome Roboter nicht nur ihre Umgebung wahrnehmen und messen, sondern selbstständig Aufgaben übernehmen.“ Ein Beispiel sei, autonom chemische Proben zu nehmen und zu analysieren. Für die marktreife Einführung solcher Fähigkeiten brauche Anybotics noch etwa ein Jahr, schätzt er.
Cesari von Sevensense erwartet: „In fünf bis zehn Jahren wird es möglich sein, fast jeden Arbeitsschritt in der Materialtransportindustrie zu automatisieren.“ Den größten Markt sieht er bei Anwendungen, welche die flexible Fertigung sowie die Lagerung und Verteilung von Waren betreffen. „Ein Logistiklager wird in Zukunft viel weniger menschliches Personal benötigen, die Produktivität wird dramatisch steigen“, ist er überzeugt.
Gleichzeitig sorgen die Fortschritte bei komplexen Sprachmodellen wie ChatGPT dafür, dass die Interaktion von Menschen mit Robotern immer einfacher werde, sagt Investor Noske. „Die Entwicklung ist so stark vorangeschritten, dass Menschen mit einem Roboter schon bald wie mit einem Kollegen kommunizieren können.“ Daran glaubt und arbeitet auch Sevensense. Cesari ergänzt: „Unser Ziel ist es, dass ein Roboter so simpel zu bedienen ist wie ein iPhone.“
Doch Wissenschaftler Siegwart kennt auch die Grenzen dessen, was Maschinen auf absehbare Zeit leisten können. „Es gibt viele Roboter, die ein Auto zusammensetzen können – aber noch keinen, der ein Auto reparieren kann.“