Cobots mit Köpfchen
Künstliche Intelligenz (KI) in der kollaborativen Robotik
Das Dreamteam KI und Cobot nutzt maschinelles Lernen (ML), Bilderkennung und Datenauswertung, um Roboter flexibler und leichter programmierbar zu machen. In Kombination können die Technologien auf die Umwelt reagieren und komplexere Aufgaben übernehmen.
DIE IDEE, menschliches Denken auf Computer zu übertragen, übt schon lange eine Faszination auf die Menschen aus. Schriftsteller und Regisseure ließen und lassen sich immer wieder davon inspirieren. Geschichten wie „Frankenstein“, „Star Wars“oder „Matrix“erzählen von der Macht Künstlicher Intelligenz (KI), die sich auf gute oder schlechte Weise in das Leben der Menschen einmischt. Jenseits der Fiktion haben Ki-basierte Anwendungen bereits vor über 50 Jahren Einzug in die wissenschaftliche Praxis gehalten.
Vom Schreckgespenst zur Schlüsseltechnologie
Als KI gelten hochkomplexe Algorithmen, die Probleme lösen können. Der Begriff ist eine leidliche Übersetzung der Bezeichnung „Artificial Intelligence“, die der amerikanische Informatiker John
Mccarthy geprägt hat. 1956 initiierte dieser die erste wissenschaftliche Konferenz zu einem Thema, das von den Zeitgenossen damals skeptisch beäugt wurde.
Seither ist viel passiert: Mit den Jahren hat sich KI als eigenständiger Teilbereich der Informatik etabliert und wird heute als industrielle Schlüsseltechnologie begriffen. Meilensteine wie der erste Robocup 1997, bei dem Roboter gegeneinander Fußball spielten, oder der Sieg des Ibm-computers Deep Blue über Schachweltmeister Garri Kasparow im selben Jahr rückten die Potenziale der Technologie in das öffentliche Bewusstsein.
Fortschritte im maschinellen Lernen und der Datenverarbeitung ebneten schließlich den Weg zu einer kommerziellen Anwendung von KI im Alltag, etwa in Form von Sprachsteuerungen oder Produktempfehlungen. Mittlerweile fördern
Industrie-pc und eine modulare Software-architektur verarbeiten die Informationen und ermöglichen dem Cobot, Teile präzise zu erkennen. Auf dieser Basis kann der Roboter auch zufällig angeordnete Objekte an der richtigen Stelle greifen, selbst wenn diese sich überlagern.
Auch das Berliner Unternehmen Micropsi Industries hat diese Hürde genommen. Mit Mirai hat es eine sensorgestützte Robotersteuerung entwickelt, die den Roboter befähigt, in Echtzeit auf seine Umgebung zu reagieren. Der Anwender trainiert den Roboter, indem er ihn am Handgelenk führt. Über eine Kamera und weitere Sensoren nimmt der Roboter dies wahr und speichert die erfassten Daten. Mithilfe von ML leitet er in neuen Situationen daraus eigenständig die richtigen Bewegungen ab.
Dies unterscheidet sich von der Herangehensweise, in der Roboter traditionell agieren: Statt einzelne Positionsmessungen eines Werkstücks vorzunehmen, erzeugt Mirai die Roboterbewegungen unmittelbar. Dies versetzt einen Roboterarm in die Lage, auch dann präzise zu greifen, wenn ein Teil anders positioniert oder geformt ist, als geplant.
Bildverarbeitungssysteme wie diese bewältigen eine der komplexesten Herausforderungen der Robotik: die Auge-hand-koordination. Während Menschen ihre Bewegungen bereits in frühester Kindheit mit dem Sehsinn in Einklang bringen, war dies für Roboter lange scheinbar unmöglich. Dass sie mithilfe entsprechender Systeme nun sogar den „Griff in die Kiste“, also das Handling unsortierter Teile, bewerkstelligen, beschleunigt Produktionsprozesse enorm.
Davon profitiert zum Beispiel der österreichische Aluminiumbearbeiter Jenny Waltle. Der
Mittelständler nutzt zwei Ur5-cobots von Universal Robots, die eine Cnc-fräse bestücken. Dafür entnehmen die Roboter zufällig angeordnete Werkstücke aus einer Kiste. Die Roboter sind mit einem extern installierten 3D-kamerasystem verknüpft, das die vorgesägten Aluminiumteile scannt.
Anschließend erstellt das System einen 3Ddatensatz, anhand dessen der erste Cobot die Oberflächenstrukturen der Teile sowie ihre Anordnung erkennt. Er entnimmt einzelne Werkstücke aus dem Behälter und legt sie in eine Zwischenablage, von der aus der zweite Cobot damit die Fräse bestückt. So erspart sich das Unternehmen eine zeitintensive Vorsortierung per Hand. Die Zykluszeiten betragen nur 30 bis 40 Sekunden, sodass die Cobots im Zwei-schicht-betrieb bis zu 2.400 Teile pro Tag bearbeiten.
Mitdenken erleichtert Programmierung
Neben dem Werkstück-handling vereinfachen intelligente Vision-systeme auch den Teach-prozess. Anwender können den Roboterarm trainieren, indem sie ihn von Hand führen und sich eine aufwendige Programmierung sparen. So lässt sich der Cobot im Arbeitsalltag schneller für neue Aufgaben umrüsten. Diese einfache Bedienbarkeit dürfte in Zukunft helfen, Hemmschwellen abzubauen und auch kleinere Unternehmen zur Automatisierung zu bewegen.
Wie das Beispiel bei Jenny Waltle zeigt, profitieren auch KMU von Ki-gestützter Robotik. Potenzial liegt neben der Produktion auch in der Logistik und dem ecommerce. Hier können Cobots mit intelligenten Vision-systemen ihre Vorteile beispielsweise in der Kommissionierung von Waren ausspielen.
KI befähigt Robotik somit vor allem zu mehr Flexibilität, um schnell auf Veränderungen zu reagieren. Mit Blick auf Sprachsteuerungen und die Fähigkeiten der industriellen Bilderkennung ist in Zukunft noch viel zu erwarten. Trotz aller Fortschritte ist die baldige Entwicklung selbstdenkender Maschinen, die autonom entscheiden, unwahrscheinlich.
Der Mensch behält den Blick fürs Ganze
Während KI Roboter zu Höchstleistungen in einem spezifischen Anwendungsbereich beflügelt, fehlt ihr der Blick aufs Ganze. Der Mensch bringt Kreativität, Führungsqualität und Teamfähigkeit in den Produktionsprozess ein. Er trifft Entscheidungen und sieht, an welchen Stellschrauben zu drehen ist. KI wird Cobots in ihrer eigentlichen Aufgabe besser machen: Dem Menschen unterstützend zur Hand gehen.
Andrea Alboni ist Regional Sales Manager DACH bei Universal Robots.