Ausgabe: 4/2011, Seite 22   -  Leben & Umwelt

TURNEN, MALEN, LERNEN

Der kindliche Humanoide iCub soll lernen wie ein echtes Kind. Doch der Alltag im Roboter-Kindergarten ist mühsam.

von Tanja Krämer
 

Jeden Morgen verlässt Giorgio Metta seine Frau und seinen Sohn Fabrizio, um zu seiner zweiten Familie zu fahren. Sein Auto quält sich durch den dichten Verkehr Genuas, passiert das Industriegebiet Bolzaneto mit seinen Großmärkten und dem viel befahrenen Autobahnkreuz und schraubt sich endlich die kurvige Via Morego herauf, um auf dem viel zu engen Parkplatz zwischen chaotisch geparkten Kleinwagen noch eine Lücke zu finden. Am Horizont krümmen sich, dicht bewachsen, die ligurischen Voralpen. Das Mittelmeer, kaum weiter entfernt, ist nur zu ahnen.

Hier oben, weit über den Dächern Genuas, ist der Sitz des Italian Institute of Technology (IIT). Es ist ein noch junger, fünfstöckiger Bau in verwaschenem Eierschalen-Ton, dem man von außen nicht ansieht, dass er eines der bedeutendsten Forschungsinstitute Italiens beherbergt. In ihm versucht der 40-jährige Giorgio Metta nichts Geringeres, als die Robotik umzukrempeln – mit einem Humanoiden von 94 Zentimeter Größe, von dem Metta sagt, er sei für ihn wie ein zweites Kind. Der Leiter des „Cognitive Humanoids Laboratory“ am IIT meint das als Scherz, und doch steckt ein wenig Wahrheit darin.

Es ist Montagvormittag, und Mettas zweites Kind beendet gerade seine Morgengymnastik. Geschmeidig schiebt es den Kopf in den Nacken und führt seine Arme über die Seiten nach oben wie bei einer Yoga-Übung. Dann zieht der Roboter die Beine an den Bauch und rollt sich zu einer Kugel zusammen, in der Luft gehalten von einer Stange, die an seinem Rücken befestigt ist. Die Motoren surren leise.

Die Sportübung ist eine Art Selbsttest, sie demonstriert die Gelenkigkeit des kleinen Humanoiden. 53 Freiheitsgrade hat der Roboter, das ist mehr als bei den meisten seiner anderen humanoiden Kollegen. Die Gelenke erlauben es ihm, Hände und Arme unabhängig voneinander zu bewegen, ebenso wie den Torso, die Hüfte, die Beine, den Nacken und auch die Augen. 22 Kilo ist der kleine Humanoide schwer. Aufgehängt an einem Metallgestell, die kleinen Füße wenige Zentimeter über dem Boden, erinnert er an eine Marionette von der Größe eines dreijährigen Kindes, mit einem kleinen weißen Gesicht, aus dem hinter beweglichen Lidern zwei übergroße Augen herausschauen wie bei einer Comic-Figur.

fantaSIE WIRD WIRKLICHKEIT

„iCub“ heißt der Wicht, der Name ist dem Dschungelbuch nachempfunden, in dem das Findelkind Mowgli von den Tieren, die es adoptieren, liebevoll „man cub“, also „menschliches Jungtier“ gerufen wird. Metta grinst, als er das erzählt. Ihn inspirieren fantastische Geschichten. Als Jugendlicher verschlang er Dutzende Science-Fiction-Bücher, dann wandte er sich der Robotik zu. Metta sagt, sie sei seine Leidenschaft. Vielleicht muss man so sein, um auf eine solche Idee zu kommen: Ein Roboter-Junges zu bauen, das lernen soll wie ein echtes Menschenkind.

Giorgio Metta ist ein kleiner, zurückhaltender Mann mit dichtem dunklen Haar, durch das sich graue Strähnen ziehen. Er studierte Elektronik in Genua und arbeitete als Gastforscher am Massachusetts Institute of Technology, einem der führenden Institute für den Bau von Humanoiden. Dort beschloss er, einen Roboter wie iCub zu bauen: einen Humanoiden, der lernen kann wie ein Mensch: über seinen Körper, über die Erfahrungen, die er mit seiner Umwelt macht. Und weil wir Menschen am meisten lernen, wenn wir noch klein sind, beschloss Metta, auch seinen Humanoiden so zu konstruieren – als Kind, dem Eltern und Erzieher die Welt erklären, das aber selbst die Einzelteile zum großen Ganzen zusammenfügt.

In einem Telefonat erzählte der Forscher 2001 seinem früheren Professor Giulio Sandini von der Universität Genua von seiner Idee. Gemeinsam beschlossen sie, die Vision umzusetzen – und zwar nicht im Geheimen, abgeschottet von anderen Forschergruppen, wie dies lange Zeit üblich war in der kostspieligen Robotik. Sondern in einem Open-Source-Verfahren, wie man es aus der Software-Branche kennt: Alle Programmcodes, alle Schaltpläne für den Roboter sollten für andere Wissenschaftler zugänglich sein – unter der Bedingung, dass auch sie ihre Ergebnisse veröffentlichen und frei zur Verfügung stellen. Die EU finanzierte das Vorhaben namens Robotcub mit 8,5 Millionen Euro. Sandini wurde als Leiter des Departments für Robotics, Brain & Cognitive Sciences des IIT offizieller Koordinator des Projektes, Metta ist für die Technik zuständig.

VON KLEINKINDERN ABGESCHAUT

2004 begannen Hunderte Forscher aus elf europäischen Instituten damit, den Kind-Roboter zu bauen. Es war ein interdisziplinäres Projekt, an dem sich auch Neurowissenschaftler und Psychologen beteiligten. Sie erklärten den Robotikern, wie Kleinkinder die Welt erkunden, wie ihre Sinne die Umwelt erfassen, und was im Gehirn passiert, wenn sie lernen. Anschließend versuchten Ingenieure und Elektroniker, dieses Wissen auf den Roboter zu übertragen. Es war ein fruchtbarer Prozess: Heute kann jeder Forscher im Cognitive Humanoids Lab des IIT erklären, was Spiegelneuronen sind – Nervenzellen, mit denen wir blitzschnell die Handlungsabsichten anderer erkennen – und wie ein menschlicher Muskel oder die Netzhaut des Auges funktioniert.

Die Einzelteile des Humanoiden wurden unter anderem in Italien, England und Portugal gefertigt. Zusammengeschraubt und programmiert wurde er im IIT. Die Wissenschaftler brachten dem Roboter bei, den eigenen Körper wahrzunehmen, sich krabbelnd im Raum zu bewegen und Objekte zu erkennen. Sie lehrten ihn, mithilfe einer Spracherkennung auf einfache Fragen zu reagieren und mitzuteilen, was er tun will. Damit sich iCub in der Welt zurechtfindet, gaben sie ihm Sensoren, die denen des Menschen nachempfunden sind: iCub kann sehen und hören, seine Fingerkuppen und Handflächen registrieren Druck.

Nach fünf Jahren endlich war es so weit: 2009 schickten die Schöpfer ihre Kreatur hinaus in die Welt: 17 iCub-Modelle stehen inzwischen in verschiedenen Instituten in Europa, 3 blieben im IIT: ein schwarzer, ein roter und ein weißer Kind-Roboter. Weitere Roboter sind bereits in Auftrag gegeben – für 200 000 Euro pro Exemplar. Die Erwartungen an die Humanoiden sind groß. Sie alle haben die Aufgabe, etwas zu lernen. Doch das ist schwieriger als gedacht.

„DAS IST EINE KRAKE“

Für den schwarzen iCub steht heute, wie so oft in den vergangenen Monaten, die Objekterkennung auf dem Lehrplan. Den Unterricht leiten Francesco Nori und Vadim Tikhanoff, zwei junge Forscher um die 30. Um sie verteilt liegen Schachteln mit Legosteinen, Plüschtiere und bunte Plastikautos. Stünden nicht überall die brummenden Rechner, käme man sich vor wie in einem Kindergarten. Francesco Nori, ein schlaksiger junger Mann mit markant geschwungener Nase, schiebt den Roboter dicht an einen Tisch heran. Dann greift er sich eine handtellergroße, pinkfarbene Krake aus Plüsch und wedelt damit vor dem Roboter herum. Im Hintergrund gibt Vadim Tikhanoff über ein Headset die ersten Befehle: „Fokussiere die Bewegung“, sagt er. Surrend erfassen die Kamera-Augen von iCub die Plüschkrake, die Nori nun auf den Tisch legt.

„Das ist eine Krake“, sagt Vadim Tikhanoff. „Berühre die Krake.“ Der Roboter bewegt den Kopf, die Augen suchen den Tisch ab, dann führt er seinen rechten Arm zum Plüschtier und legt die Hand kurz darauf. „Greife die Krake“, sagt Tikhanoff. iCub zieht seine Hand zurück, macht die Bewegung erneut – und hebt das Stofftier hoch. Er hat die Aufgabe erfüllt.

Nori und Tikhanoff sind zufrieden, und auch auf dem Gesicht des Roboters leuchtet ein Lächeln auf – wortwörtlich. Denn die Erfinder haben iCub zwei bewegliche Augenbrauen und einen Mund in Form rot leuchtender Striche gegeben. Versucht der Roboter-Schüler, ein Objekt zu fokussieren, gehen die Augenbrauen nach unten, gelingt ihm etwas nicht, zieht er eine Schnute. Und kann er eine Aufgabe erfolgreich beenden, erstrahlt ein Lächeln auf seinem Gesicht. „Mimik ist die einfachste Methode, mit Menschen in Kontakt zu treten“, erklärt Francesco Nori, „und wir bekommen so direkt mit, ob der Roboter eine Aufgabe bewältigt oder nicht.“

Die Handgriffe, die der schwarze iCub beherrscht, sind noch sehr begrenzt: Berühren, greifen und schubsen kann er. Dennoch glauben die Forscher, dass er mit diesem Repertoire bereits lernen kann, einige Merkmale seiner Spielzeuge zu unterscheiden. So rollt ein Ball anders als ein Spielzeugauto, wenn man beide anstößt, und ein Plüschtier fühlt sich weicher an als ein Legostein.

Gelingt es dem Roboter, solche Informationen seiner visuellen und haptischen Sensoren abzuspeichern, zu verknüpfen und später auf andere Objekte zu übertragen, hat er das geschafft, was die Forscher erhoffen: Er hat aus Erfahrungen heraus ein Konzept von einem Ding entwickelt und dies auf neue Situationen angewendet. Einfacher gesagt: Er hat etwas gelernt.

„Die Art und Weise, wie wir Objekte erkennen, hat etwas damit zu tun, was wir mit ihnen machen können“, erklärt Metta. Kognition, ist er überzeugt, ist tiefgreifend mit unserem Körper verbunden. „Um ein kognitives System zu entwickeln, braucht man einen Körper, und wie das System sich entwickelt, hängt auch von der Form dieses Körpers ab.“

ABSTRAKTION HILFT NICHT WEITER

„Embodied Cognition“ nennt man dieses Konzept, es markiert eine Trendwende (siehe Beitrag „Wie der Körper das Denken prägt“ ab Seite 18). Denn in der traditionellen Robotik war man lange davon überzeugt, dass ein Roboter nur dann mit der Welt interagieren kann, wenn er in der Lage ist, seine Aktivitäten mithilfe hochkomplexer Prozesse in abstrakten Modellen der Wirklichkeit zu berechnen. Lernen hieß hier: vorausschauen und planen. Wie an einem Reißbrett sollte eine zukünftige künstliche Intelligenz alle Eventualitäten kalkulieren und dann angemessen darauf reagieren.

Doch die Wirklichkeit hält sich oft nicht an Pläne und Kalkulationen. Und so waren die Roboter früherer Tage oft schon überfordert, wenn die Putzkolonne am Abend zuvor den Mülleimer an eine etwas andere Stelle gerückt und den Bürostuhl ein wenig versetzt hatte. Auf Veränderungen in ihrem Konzept hatten die Roboter schlicht keine Antwort. Ein Roboter aber, der seine Umwelt nicht im Vorhinein anhand Tausender Variablen berechnet, sondern sich hauptsächlich auf seinen Körper, seine Sensoren verlässt, könnte auf solche Veränderungen reagieren. Lernen, das heißt für die Anhänger der „Embodied Cognition“ die Reaktion auf Erfahrung. Der erste Roboter, der auf diese Weise konstruiert wurde, war COG, ein Torso mit zwei Armen und einem Kopf mit Kamera-Augen, geschaffen von Rodney Brooks, den früheren Direktor des Artificial Intelligence Laboratory am MIT, einem Vordenker der „Embodied Cognition“ in der Robotik. Brooks, sagt Giorgio Metta, habe ihn nachhaltig geprägt.

Doch von der Theorie bis zu Praxis ist es manchmal ein weiter Weg. Dem Roboter-Schüler am IIT zumindest will an diesem Tag nichts so recht gelingen. Er berührt, er greift, er schubst – aber allzu oft gehen seine Hände ins Leere, die Augenbrauen verziehen sich zu einem grimmigen Blick. Immer und immer wieder wedelt Nori mit Spielzeug vor dem Gesicht des iCubs herum, immer und immer wieder gibt Tikhanoff mit seinem Headset Befehle. Die Forscher überprüfen die Koordinaten, die der Roboter speichert, sie diskutieren Zahlen und Parameter, sie schalten den Automaten aus und wieder ein und werden sichtlich nervös. Der Vorführeffekt.

iCUBS KINDERKRANKHEITEN

Auch Metta und Sandini schauen im Laufe des Tages mehrmals vorbei. „Das Problem ist, dass iCub noch nicht robust genug funktioniert“, erklärt Metta. Ist es zu laut, klappt die Spracherkennung nicht, ist es zu sonnig, gibt es Schwierigkeiten beim Erkennen der Objekte. Auch das Zusammenführen von Fühlen und Sehen klappt noch nicht so recht – deswegen arbeiten die Forscher im IIT erst einmal nur mit den visuellen Daten. Und auch hier gibt es noch genug zu tun. Bis zum Abend haben sich zahlreiche Köpfe über den Monitor gebeugt, der in langen Zahlenkolonnen die Prozesse im Roboter sichtbar macht. Am Ende sind alle überzeugt: Schuld sind die Kameras – sie müssen neu justiert werden. Am nächsten Morgen ist der schwarze iCub erst einmal krankgeschrieben. Drei Techniker haben ihn umzingelt und die weiße Gesichtsmaske entfernt. Nun werkeln sie an den Kameras herum. Ähnlich ergeht es dem roten Roboter: Weil die Forscher im IIT glauben, dass nur eine neue Form der Bilderkennung dafür sorgen kann, dass der Humanoide seine Umgebung sehen und das Gesehene in Echtzeit verarbeiten kann, experimentieren sie mit neuen Kameras und neuer Software. Zwei Kameras sollen später in den Augen, weitere an einer Art Kopfschmuck befestigt werden, der an einen geflügelten Helm erinnert. Noch aber steht der Roboter einäugig da – und wartet auf seine Vollendung.

MONATELANG MALEN GEÜBT

Wenige Meter weiter hat der 30-jährige Vishwanathan Mohan mehr Glück mit seiner Demonstration. Der zierliche Inder hat dem weißen Roboter beigebracht, auf einer Staffelei einfache Kringel und Striche zu zeichnen – und diese auch zu komplexeren Symbolen zusammenzusetzen. Mohan taucht einen Pinsel in etwas Wasserfarbe und drückt ihn dem Roboter in die Hand. Und iCub malt. Etwas unbeholfen zwar, ein Kind könnte das sicher besser. Doch das wackelige „S“, das am Ende orangefarben auf dem Papier prangt, ist das Resultat monatelanger Arbeit. Der Roboter hat das Malen durch Beobachtung gelernt, und dann immer und immer wieder geübt, um seine Bewegungen anzupassen, bis das gemalte Bild dem entsprach, das er vorher gesehen hatte. Dazu musste iCub nicht nur lernen, seinen Arm und die Hand richtig zu bewegen, sondern auch den Pinsel als Verlängerung seines Körpers zu erkennen. Mohan zeigt stolz die Bilder seines Adepten: Die ersten Zeichnungen sind krakelige, abgehackt wirkende Linien, die sich von Mal zu Mal mehr dem Bild annähern, das der Roboter an diesem Tag gemalt hat. Hier also wurde ein Ziel der „Embodied Cognition“ erreicht. Der Roboter hat sich selbst verbessert und etwas gelernt.

UNBERECHENBARE TECHNIK

Und doch: Ist es nicht enttäuschend, wie wenig der kleine Roboter erst kann? Wo doch Visionäre seit Jahren in buntesten Farben eine Zukunft malen, in der Roboter uns als Dienstleister zur Hand gehen oder in Erdbeben-Gebieten nach Verschütteten suchen? Die Forscher des IIT kennen solche Erwartungen. „Technik ist ein unberechenbares Biest“, sagt Metta. „Es ist immer heikel, hier irgendwelche Vorhersagen zu machen. Aber die Menschen neigen nun mal dazu, zu optimistisch zu sein.“

Im IIT geht man lieber kleine Schritte. Hier ist man stolz, wenn der Roboter-Schüler eine neue Bewegung lernt, wenn er nach tagelangen Versuchen endlich eine Kante als solche erkennt. Und wenn er einen Becher halten kann, ohne ihn zu zerquetschen. „Wir werden wahrscheinlich in den Ruhestand gehen, ohne alle Fragen gelöst zu haben“, sagt Metta und lacht. Als Lehrer und Vater muss man eben geduldig sein. ■


TANJA KRÄMER hat nicht nur den Forschern über die Schulter geschaut, sondern auch viele Fotos zu ihrer Reportage beigesteuert.

GUT ZU WISSEN: NEURONALE NETZE

Normale Computer verarbeiten Informationen seriell: Sie erledigen eine Aufgabe nach der anderen nach festen Regeln. Künstliche neuronale Netze, über die viele autonome Roboter verfügen, simulieren dagegen das Gehirn: Viele aktive Elemente („Neuronen“) arbeiten dabei gleichzeitig (parallel) und beeinflussen sich gegenseitig.

Über „Sinnesorgane“ wie Kameras oder Drucksensoren kann ein autonomer Roboter seine Umwelt und die Folgen seiner Bewegungen wahrnehmen. Die Messwerte der Sensoren werden in das neuronale Netz eingespeist und dort nach bestimmten, dem Gehirn nachempfundenen Algorithmen verarbeitet. So verändert sich das Aktivitätsmuster des neuronalen Netzes im Laufe der Zeit – der Roboter „lernt“.

Viele weitere Probleme, mit denen ein normaler Roboter nicht so leicht fertig wird, kann ein autonomer Roboter dank seines neuronalen Netzes lösen: Er kann zum Beispiel Muster erkennen und Kategorien bilden. Er erstellt von selbst „Landkarten“ seines Körpers und seiner Umgebung. Die Maschine entwickelt neue Fähigkeiten – Wissenschaftler sprechen von der „Emergenz“ intelligenten Verhaltens. JR



MEHR ZUM THEMA

LESEN

Rolf Pfeifer, Josh Bongard How the Body Shapes the Way we Think A New View of Intelligence The MIT Press, Cambridge 2007, ca. € 36,–

INTERNET

Roboter iCub: www.robotcub.org

Roboter Ecce: eccerobot.org

Roboter-Evolution: Unter dem Titel „Morphological change in autonomous machines“ findet man auf www.youtube.com ein Zwei-Minuten-Video über die neuen Forschungen von Josh Bongard.

FILM

Der Dokumentarfilm PLUG AND PRAY von Jens Schanze beschäftigt sich kritisch mit der Entwicklung der künstlichen Intelligenz. Eine Hauptrolle spielt der inzwischen verstorbene Informatiker Joseph Weizenbaum. Die DVD ist ab Frühsommer 2011 im Handel. Mehr Informationen unter: www.plugandpray-film.de

AUSSTELLUNG

Auf die Plätze Die Sportausstellung des Deutschen Hygiene-Museums Dresden ist vom 16. April 2011 bis Februar 2012 zu sehen: www.dhmd.de



« zurück