Datei:Chelsea Finn and Vestri the robot, UC Berkeley.jpg

Chelsea_Finn_and_Vestri_the_robot,_UC_Berkeley.jpg (369 × 505 Pixel, Dateigröße: 36 KB, MIME-Typ: image/jpeg)

Diese Datei und die Informationen unter dem roten Trennstrich werden aus dem zentralen Medienarchiv Wikimedia Commons eingebunden.

Zur Beschreibungsseite auf Commons


Beschreibung

Beschreibung
English: Vestri the robot imagines how to perform tasks

UC Berkeley researchers have developed a robotic learning technology that enables robots to imagine the future of their actions so they can figure out how to manipulate objects they have never encountered before. In the future, this technology could help self-driving cars anticipate future events on the road and produce more intelligent robotic assistants in homes, but the initial prototype focuses on learning simple manual skills entirely from autonomous play.

Using this technology, called visual foresight, the robots can predict what their cameras will see if they perform a particular sequence of movements. These robotic imaginations are still relatively simple for now – predictions made only several seconds into the future – but they are enough for the robot to figure out how to move objects around on a table without disturbing obstacles. Crucially, the robot can learn to perform these tasks without any help from humans or prior knowledge about physics, its environment or what the objects are. That’s because the visual imagination is learned entirely from scratch from unattended and unsupervised exploration, where the robot plays with objects on a table. After this play phase, the robot builds a predictive model of the world, and can use this model to manipulate new objects that it has not seen before.

“In the same way that we can imagine how our actions will move the objects in our environment, this method can enable a robot to visualize how different behaviors will affect the world around it,” said Sergey Levine, assistant professor in Berkeley’s Department of Electrical Engineering and Computer Sciences, whose lab developed the technology. “This can enable intelligent planning of highly flexible skills in complex real-world situations.” The research team will perform a demonstration of the visual foresight technology at the Neural Information Processing Systems conference in Long Beach, California, on December 5.

At the core of this system is a deep learning technology based on convolutional recurrent video prediction, or dynamic neural advection (DNA). DNA-based models predict how pixels in an image will move from one frame to the next based on the robot’s actions. Recent improvements to this class of models, as well as greatly improved planning capabilities, have enabled robotic control based on video prediction to perform increasingly complex tasks, such as sliding toys around obstacles and repositioning multiple objects.

“In that past, robots have learned skills with a human supervisor helping and providing feedback. What makes this work exciting is that the robots can learn a range of visual object manipulation skills entirely on their own,” said Chelsea Finn, a doctoral student in Levine’s lab and inventor of the original DNA model.

Full Story: https://news.berkeley.edu/2017/12/04/...

Featured researchers: Assistant Professor, Sergey Levine, doctoral student, Chelsea Finn, graduate student, Frederik Ebert

Video by Roxanne Makasdjian and Stephen McNally

Music: "Plastic of Paper" by Wes Hutchinson, "New Phantom" and "Believer" by Silent Partner

http://news.berkeley.edu/ http://www.facebook.com/UCBerkeley http://twitter.com/UCBerkeley http://instagram.com/ucberkeleyofficial

https://plus.google.com/+berkeley
Datum
Quelle Vestri the robot imagines how to perform tasks
Urheber UC Berkeley

Lizenz

Dieses Video, dieser Screenshot oder dieser Audio-Auszug wurde ursprünglich auf YouTube unter einer CC-Lizenz hochgeladen.
Deren Website schreibt dazu: „Creator haben die Möglichkeit, ihre Videos mit einer Creative-Commons-Lizenz vom Typ CC BY zu versehen.“
An Hochladende: Ein Link (URL) zur Originaldatei und zum Urheber muss, sofern verfügbar, angegeben werden.
w:de:Creative Commons
Namensnennung
Diese Datei ist unter der Creative-Commons-Lizenz „Namensnennung 3.0 nicht portiert“ lizenziert.
Dieses Werk darf von dir
  • verbreitet werden – vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden
  • neu zusammengestellt werden – abgewandelt und bearbeitet werden
Zu den folgenden Bedingungen:
  • Namensnennung – Du musst angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade dich oder deine Nutzung besonders.
Diese auf einer anderen Website veröffentlichte Datei wurde noch nicht von einem Bot, Administrator oder Dateiprüfer geprüft. Die angegebene Lizenz ist möglicherweise falsch. Siehe Category:License review needed für weitere Informationen.

Kurzbeschreibungen

Ergänze eine einzeilige Erklärung, was diese Datei darstellt.

In dieser Datei abgebildete Objekte

Motiv

image/jpeg

a4e680f45e954dd17f8e55157cf266a99e86e687

37.166 Byte

505 Pixel

369 Pixel

Dateiversionen

Klicke auf einen Zeitpunkt, um diese Version zu laden.

Version vomVorschaubildMaßeBenutzerKommentar
aktuell22:08, 2. Aug. 2022Vorschaubild der Version vom 22:08, 2. Aug. 2022369 × 505 (36 KB)GRuban{{Information |description={{en|1=Vestri the robot imagines how to perform tasks UC Berkeley researchers have developed a robotic learning technology that enables robots to imagine the future of their actions so they can figure out how to manipulate objects they have never encountered before. In the future, this technology could help self-driving cars anticipate future events on the road and produce more intelligent robotic assistants in homes, but the initial prototype focuses on learning s...

Globale Dateiverwendung