Der Google-Roboter bringt sich selbst das Laufen in nur zwei Stunden bei

Erinnern Sie sich an die Szene bei Walt Disney? Bambi wo das titelgebende Rehkitz lernt, aus eigener Kraft aufzustehen und zu gehen? Es ist eine bezaubernde Vignette im Film, die eine Fähigkeit demonstriert, die viele Tierbabys – vom Schwein über die Giraffe bis hin zu, ja, Rehe – innerhalb von Minuten nach ihrer Geburt erlernen. In den ersten Lebensstunden verfeinern diese Tiere rasch ihre motorischen Fähigkeiten, bis sie die volle Kontrolle über ihre eigene Fortbewegung haben. Menschen, die mit etwa sieben Monaten lernen, sich festzuhalten und mit 15 Monaten zu laufen beginnen, sind im Vergleich dazu hoffnungslos träge.

Inhalt

  • Positive Verstärkung
  • Bessere Roboter bauen

Ratet mal, was die neueste Aufgabe ist, bei der Roboter uns geschlagen haben? In einer neuen Studie durchgeführt von Forschern bei GoogleIngenieure haben einem vierbeinigen Minitaur-Roboter beigebracht, vorbeizugehen, ohne ihm wirklich viel beibringen zu müssen. Vielmehr haben sie eine Art zielgerichtete künstliche Intelligenz genutzt, um einen vierbeinigen Roboter zu erschaffen

lernen, vorwärts zu gehen, rückwärts und ganz von selbst nach links und rechts abbiegen. Es konnte sich dies auf drei verschiedenen Untergründen selbst beibringen, darunter ebener Boden, eine weiche Matratze und eine Fußmatte mit Spalten.

Empfohlene Videos

„Roboter mit Beinen können über eine große Mobilität verfügen, da Beine für die Navigation auf unbefestigten Straßen und an für Menschen vorgesehenen Orten unerlässlich sind.“ Jie Tan, leitender Ermittler des Projekts und Googles Leiter für Fortbewegungsbemühungen, sagte gegenüber Digital Trends. „Wir sind daran interessiert, Beinrobotern die Navigation in unseren vielfältigen und komplexen realen Umgebungen zu ermöglichen. Es ist jedoch schwierig, manuell Robotersteuerungen zu konstruieren, die mit einer solchen Vielfalt umgehen können Komplexität. Daher ist es wichtig, dass Roboter selbständig lernen können. Diese Arbeit ist spannend, weil dies ein erster Beweis dafür ist, dass ein Roboter mit Beinen mit unserem System erfolgreich lernen kann, selbstständig zu laufen.“

Positive Verstärkung

Mit minimalem menschlichen Aufwand in der realen Welt laufen lernen

Die Technologie, die diesem speziellen Projekt zugrunde liegt, ist etwas, das Deep Reinforcement Learning genannt wird spezifischer Ansatz für Deep Learning, der von der Verhaltenspsychologie und dem Versuch und Irrtum inspiriert ist Lernen. Um eine bestimmte Belohnung zu maximieren, lernen Software-Agenten, in einer Umgebung Maßnahmen zu ergreifen, die diese Ergebnisse auf möglichst präzise und effiziente Weise erzielen. Die Kraft des verstärkenden Lernens war wurde 2013 berühmt demonstriert Als DeepMind von Google ein Papier veröffentlichte, das zeigte, wie es eine KI trainiert hatte. um klassische Atari-Videospiele zu spielen. Dies wurde mit keiner anderen Anweisung als der Bildschirmpunktzahl und den etwa 30.000 Pixeln erreicht, aus denen jedes Bild der gespielten Videospiele bestand.

Videospiele oder zumindest Simulationen werden auch von Robotikforschern häufig eingesetzt. Eine Simulation ist theoretisch durchaus sinnvoll, da sie es Robotikern ermöglicht, ihre Maschine in einer virtuellen Welt zu trainieren, bevor sie in die reale Welt vordringt. Das erspart Robotern die unvermeidlichen Fehler und Abnutzungserscheinungen, die sie erleiden würden, wenn sie lernen, eine bestimmte Aufgabe auszuführen. Stellen Sie sich als Analogie vor, dass alle Ihre Fahrstunden mit einem Fahrsimulator durchgeführt würden. Es könnte argumentiert werden, dass Sie schneller lernen würden, weil Sie nicht so vorsichtig sein müssten, Ihre körperliche Sicherheit zu gefährden oder Ihr Auto (oder das eines anderen) zu beschädigen. Sie könnten auch schneller trainieren, ohne auf zugewiesene Unterrichtsstunden warten zu müssen oder darauf, dass ein lizenzierter Fahrer bereit ist, Sie mitzunehmen.

Das Problem dabei ist, dass es, wie jeder weiß, der schon einmal ein Auto-Videospiel gespielt hat, verdammt schwierig ist, die reale Welt so zu modellieren, dass sie sich wie die reale Welt anfühlt. Stattdessen begannen die Google-Forscher mit der Entwicklung verbesserter Algorithmen, die es ihrem Roboter ermöglichen, schneller und mit weniger Versuchen zu lernen. Aufbauend auf einer früheren Google-Recherche veröffentlicht im Jahr 2018In dieser neuesten Demonstration konnte ihr Roboter in nur wenigen Stunden laufen lernen.

Dies ist auch möglich, während der Schwerpunkt auf einem vorsichtigeren und sichereren Lernansatz liegt, der weniger Stürze mit sich bringt. Dadurch wird die Anzahl der menschlichen Eingriffe minimiert, die erforderlich sind, um den Roboter jedes Mal aufzuheben und abzustauben, wenn er umfällt.

Bessere Roboter bauen

Das Erlernen des Laufens in zwei Stunden ist vielleicht nicht ganz die Effizienz des Laufenlernens, aber es ist weit davon entfernt, dass Ingenieure explizit programmieren müssen, wie einem Roboter normalerweise das Manövrieren beigebracht wird. (Und wie bereits erwähnt, ist es viel besser, als menschliche Säuglinge in diesem Zeitrahmen bewältigen können!)

„Obwohl viele unbeaufsichtigte Lern- oder Reinforcement-Learning-Algorithmen demonstriert wurden „Bei Simulationen erweist sich die Anwendung auf echte Roboter mit Beinen als unglaublich schwierig“, sagt Tan erklärt. „Erstens ist Reinforcement Learning datenhungrig und das Sammeln von Roboterdaten ist teuer. Unsere bisherige Arbeit hat sich dieser Herausforderung angenommen. Zweitens erfordert das Training, dass jemand viel Zeit damit verbringt, den Roboter zu beaufsichtigen. Wenn wir eine Person brauchen, die den Roboter überwacht und ihn jedes Mal, wenn er stolpert – hunderte oder tausende Male – manuell zurücksetzt, wird es viel Aufwand und sehr viel Zeit kosten, den Roboter zu trainieren. Je länger es dauert, desto schwieriger ist es, das Lernen auf viele Roboter in vielen verschiedenen Umgebungen auszuweiten.“

Eines Tages könnte diese Forschung dazu beitragen, agilere Roboter zu entwickeln, die sich schneller an verschiedene Gelände anpassen können. „Die möglichen Anwendungen sind zahlreich“, sagte Tan. Tan betonte jedoch, dass dies „noch am Anfang steht und es noch viele Herausforderungen gibt, die wir bewältigen müssen.“

Ganz im Sinne des Reinforcement-Learning-Themas handelt es sich jedoch sicherlich um eine Belohnung, die es wert ist, maximiert zu werden!

Empfehlungen der Redaktion

  • KI hat „Breaking Bad“ in einen Anime verwandelt – und es ist erschreckend
  • Warum KI niemals die Welt beherrschen wird
  • Woher wissen wir, wann eine KI tatsächlich empfindungsfähig wird?
  • Die lustige Formel: Warum maschinengenerierter Humor der heilige Gral der KI ist
  • Lesen Sie die unheimlich schöne „synthetische Schrift“ einer KI. das denkt, es sei Gott

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.