Kunnen robots complexe manipulatie beheersen door te oefenen in hun eigen door AI gegenereerde video's? Onderzoekers van Stanford en Tsinghua introduceren VLAW, een nieuw kader dat is ontworpen om robotleren te verbeteren via een continue feedbackloop. De methode maakt gebruik van een co-verbeteringsstrategie: gegevens van echte robots worden gebruikt om een videosimulator realistischer te maken, die vervolgens hoogwaardige synthetische oefengegevens genereert om de hersenen van de robot te trainen. Dit lost het veelvoorkomende probleem op waarbij simulators er niet in slagen de kleine, kritische fysieke details vast te leggen die nodig zijn voor lastige taken. In experimenten in de echte wereld behaalde VLAW een verbetering van 39,2 procent in de absolute succeskans ten opzichte van het basisbeleid, wat aanzienlijk beter presteert dan standaardmodellen door effectief de kloof tussen simulatie en werkelijkheid te overbruggen. VLAW: Iteratieve Co-Verbetering van Visie-Taal-Actie Beleid en Wereldmodel Paper: Code: Ons rapport: