Back
Forscher des Max-Planck-Instituts für Intelligente Systeme, der ETH Zürich, und Google Research Zürich erhalten die renommierte Auszeichnung auf der International Conference on Machine Learning (ICML).
Long Beach, Kalifornien, 11. Juni 2019 – Das Organisationskomitee der International Conference on Machine Learning (ICML) gab heute bekannt, dass der Best Paper Award 2019 an die Autoren der Publikation "Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations" geht. Die Forschungsarbeit ist das Ergebnis einer Kooperation zwischen Wissenschaftlern des Max-Planck-Instituts für Intelligente Systeme (MPI-IS), der ETH Zürich und Google Research Zürich. Insgesamt 750 Beiträge wurden bei der diesjährigen ICML – einer der weltweit führenden Konferenzen im Bereich Machine Learning – angenommen. Best Paper Awards sind eine hohe Auszeichnung: sie werden nur denjenigen verliehen, deren Forschungsarbeit die größte Wirkung in dem jeweiligen Fachgebiet haben wird.
„Diese Auszeichnung zeigt, dass europäische Wissenschaftler in der modernen KI-Forschung ganz vorne mitspielen", sagt Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen und einer der weltweit führenden Forscher im Bereich des Maschinellen Lernens.
An dem Projekt gearbeitet haben Francesco Locatello, Doktorand sowohl am MPI-IS als auch an der ETH Zürich, Stefan Bauer, Forschungsgruppenleiter am MPI-IS, Gunnar Rätsch von der ETH Zürich, Bernhard Schölkopf sowie Sylvain Gelly, Mario Lucic und Olivier Bachem, alle drei Forscher bei Google Research in Zürich.
In Rahmen dieser Zusammenarbeit besuchte Francesco Locatello Google Research Zürich. Dort arbeitete er eng mit Olivier Bachem, einem Research Scientist im Google Research Team, zusammen, um Großversuche auf der Rechnerinfrastruktur von Google durchzuführen.
„Es war eine großartige Gelegenheit, und wir hoffen, dass die weitere Zusammenarbeit genauso erfolgreich sein wird", sagt Locatello, der Erstautor der Publikation. „Die Zusammenarbeit mit Google und die Möglichkeit, die Infrastruktur für die Schulung von über 10.000 Modellen zu nutzen, war ein entscheidender Vorteil", fügt er hinzu. „Auf einem normalen Desktop hätte dies 2,5 Jahre kontinuierliche Rechenzeit erfordert."
In ihrer Forschungsarbeit trainieren die Wissenschaftler einen Computer mit vielen tausenden Bildern. Ausgehend von diesem großen Datensatz zielen Deep Learning Ansätze darauf ab, Muster zu identifizieren. Ein Beispiel: die Forscher füttern den Computer mit vielen tausenden Farb- und Formbildern. Es werden ihm viereckige, herzförmige, kreisförmige und rechteckige Bauklötzchen in grün, rot, und blau gezeigt. Die verwendeten Bilder sind übrigens sehr simpel: sie haben nur wenige Pixel und sind zweidimensional.
Stellen Sie sich einen Versuchsaufbau vor, bei dem ein Roboterarm zum Einsatz kommt. In einer Aufgabe soll er rote Würfel von einem Tisch hochheben. Mit ausreichend Versuchen und Daten kann ein neurales Netz für diese Aufgabe trainiert werden. Der Roboter scheitert aber, wenn der Forscher anstelle des roten Würfels plötzlich ein gelbes Dreieck hinlegt und ihn auffordert, dieses hochzuheben. Die Maschine kann ein neues Muster nicht als solches interpretieren. Sie kann nicht übertragen, was sie zuvor gelernt hat. „Das ist eines der Hauptprobleme in der KI“, sagt Bauer. „Wir wollen nicht jedes Mal ein neues Deep Net für jede neue Farbe und jede neue Form trainieren müssen.“
Was für einen Menschen kinderleicht ist, ist für eine Maschine schwierig. Es fällt ihr schwer, zwischen den Formen zu generalisieren, zu verstehen, dass das eine ein Dreieck und das andere ein Kreis ist – nur basierend auf den Bildern. „Es fällt der Maschine, die Millionen Parameter scannt und daraus Muster erkennt, schwer, die Eigenschaften der Objekte auseinanderzuhalten (was Forscher disentangled representations nennen). Wenn ich jetzt der Maschine eine neue Form Blauklötzchen vorlege mit einer neuen Farbe, ist das System verwirrt. Wir möchten aber, dass das System selber zu dem Schluss kommt – ohne, dass ich es erneut trainieren muss.“ Doch Bauer und Locatello müssen die hohen Erwartungen an die Forschung auf den Boden der Realität zurückholen. „Der Traum, dass eine Maschine nur aus Bildern lernt, unüberwacht (unsupervised), ohne weitere Informationen – das geht nicht“. Es braucht also wieder den/die Informatiker*in, der/die die Datensätze mit zusätzlichen Informationen füttert. „Dass die Maschine ganz alleine zu einer Schlussfolgerung kommt, davon sind wir weit entfernt. Das Forschungsfeld Machine Learning steht hier erst am Anfang, ein weiter Weg liegt noch vor uns.“