Ist es bei euren Projekten generell die Regel, dass ihr erst diese Technologie im großen Anwendungskontext entwickelt und dann nach Anwendungsfällen schaut und den Transfer in diese Richtung vornehmt?
Dr. Armin Wedler: Ja, grundsätzlich kann man das so festhalten. Also mein Robotik-Team, das ich hier koordiniere, beschäftigt sich primär mit der Antriebstechnik vom Rover auf Planetenoberflächen. Im Vordergrund steht die Steuerung, das sogenannte Locomotion Subsystem, welches das Design eines Fahrwerkes impliziert, bzw. die Steuermöglichkeiten. Das remote-betriebene System muss seine Umwelt wahrnehmen, was über perzeptive Verfahren erfolgt. Dabei muss man die Fernbedienung und die Technologien auch ausführen können, wenn Probleme und Störungen auftreten, wie hohe Daten- und Kommunikationsausfälle, Verzögerungen oder geringe Bandbreiten. Wir beschäftigen uns hier mit dem sogenannten SLAM-Problem, also Simultaneous Localization and Mapping, wo wir die Umwelt kartieren und uns gleichzeitig darin registrieren. Dabei schätzen wir unsere Eigenbewegung sowie Position und sind dann in der Lage, auch autonom, teilautonom und ferngesteuert zu agieren.
Genau das haben wir auch für den Weltraum. Da ist die Anforderung, wie man einen Mars-Rover mit verschiedenen Constraints bedienen kann. Bis jetzt haben wir es vielleicht noch nicht in einem sogenannten Technology Readiness Level, also in einer Flugversion für eine terrestrische Anwendung. Aber wir haben sehr viel Erfahrung darin und es ist ein Forschungsbereich, mit dem wir uns sehr intensiv beschäftigen und mit dem wir auch in Deutschland grundsätzlich sehr gut dastehen im internationalen Vergleich. Diese Erfahrungen bringen wir in die Anwendung für eine terrestrische, humanitäre Hilfe. Und das hat Parallelen zu dem Autonomen Fahren, wobei wir uns hier eindeutig mit einer unstrukturierten Umgebung beschäftigen. Darin liegt auch der große Unterschied, denn wir haben keine Linien, die wir erkennen können und wir haben teilweise gar keine Straße mehr.
Das Fahrzeug, das wir automatisieren, ist also ein Amphibienfahrzeug: es kann schwimmen und fahren. Zusätzlich muss es für die sehr raue Umgebung tauglich sein. Teilweise haben wir auch kein GPS, was aber eine große Basis für die Lokalisierung im Autonomen Fahren darstellt. Wir haben nur unsere Wahrnehmungssensoren in Form von einem kamera- und laserbasierten Wahrnehmungs-Array, was wir direkt auf das Fahrzeug montieren. Außerdem beschäftigen wir uns damit, wie die Kommunikationsstrecke sicher gehalten werden kann, auch wenn Ausfälle auftreten, damit wir das Fahrzeug trotzdem noch sicher und robust bedienen können.
Gibt es aus diesen Projekten Erkenntnisse, die man auch für das Autonome Fahren – also für den zukünftigen Alltag – nutzen kann?
Dr. Armin Wedler: Das kann man klar ableiten. Wir sind auch in den Verbundprojekten, anderen KMU und teilweise Ausgründungen aus unserem Institut unterwegs. Die Roboception GmbH, hier genannt mit Stereo-Bilddatenverarbeitung, beschäftigt sich primär mit dem industriellen Umfeld, also ist zuständig für das Greifen oder das Erkennen von Objekten im Automatisierungsumfeld, im normalen Robotik-Einsatz-Umfeld, aber auch schon bei mobilen Systemen. Die Agrarrobotik wurde z. B. auch schon einmal in verschiedenen anderen Projekten gefördert und es gibt in der Lagerlogistik solche Anwendungsfelder.
Die Firma Blickfeld z. B. hat einen innovativen Solidstate Laser entwickelt. Mit einer sehr kleinen und kompakten Bauform der Lasertechnologie bietet er aktive Sensorik an, um auch über eine größere Distanz Tiefenbild-Informationen zu bekommen.
Die Firma Sensodrive GmbH macht Antriebstechnik für Industrieroboter, wie z. B. für KUKA. Das Unternehmen ist sehr aktiv, gerade bei Torque-Geräten – also Kraftgeräten – und sensitiven Antrieben. Und es automatisiert uns hier z. B. das haptische Eingabegeräte, wie auch die verschiedenen Interfaces, die wir zu dem Fahrzeug haben.
Die DLR verfolgt mit der Unterstützung von Bayern innovativ und dem World Food Programme das Ziel, Technologie zu fördern und für die humanitäre Hilfe zum Einsatz zu bringen und sie eventuell dann auch wieder in nicht-humanitäre Bereiche umzusetzen. Und die Ausgründungen, die wir jetzt hier mithaben, arbeiten mit uns in dem Projekt an der humanitären Herausforderung bei A.H.E.A.D., ein solches Fahrzeug fernsteuerbar zu machen. Aber sie arbeiten auch mit anderen Projektpartnern für Fahrzeuge, Automatisierung, Industrie, Automation oder an anderen Derivaten.
Das Interview führte Dr. Tanja Jovanovic, Leiterin Technologie- und Innovationsmanagement bei der Bayern Innovativ GmbH.
Hören Sie sich das vollständige Interview als Podcast an: