Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Können Roboter komplexe Manipulationen meistern, indem sie in ihren eigenen, von KI generierten Videos üben?
Forscher von Stanford und Tsinghua stellen VLAW vor, ein neues Framework, das darauf abzielt, das Lernen von Robotern durch einen kontinuierlichen Feedback-Loop zu verbessern.
Die Methode verwendet eine Co-Improvement-Strategie: Daten von realen Robotern werden genutzt, um einen Videosimulator realistischer zu gestalten, der dann qualitativ hochwertige synthetische Übungsdaten generiert, um das Gehirn des Roboters zu trainieren. Dies behebt das häufige Problem, dass Simulatoren die kleinen, kritischen physischen Details, die für knifflige Aufgaben erforderlich sind, nicht erfassen.
In realen Experimenten erzielte VLAW eine Verbesserung der absoluten Erfolgsquote um 39,2 Prozent im Vergleich zur Basisrichtlinie und übertraf damit Standardmodelle erheblich, indem es die Lücke zwischen Simulation und Realität effektiv überbrückte.
VLAW: Iterative Co-Improvement der Vision-Language-Action-Politik und des Weltmodells
Papier:
Code:
Unser Bericht:

Top
Ranking
Favoriten
