Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anubhav
Het crawlen van een hele website kostte vroeger:
Een Python-script.
Playwright of Selenium.
Proxy-rotatie.
Rate limiting-logica.
Foutafhandeling.
3 uur debuggen waarom pagina 47 een 403 teruggeefde.
Nu is het één API-aanroep.
Elke web scraping startup die miljoenen heeft opgehaald om dit probleem op te lossen, is nu gereduceerd tot één enkele endpoint.
Elke freelancer die $500 vraagt om "websitegegevens te extraheren" heeft zijn hele businessmodel verloren aan een /crawl-opdracht.
HTML. Markdown. JSON. Kies je formaat. Geen scripts. Geen browser. Geen hoofdpijn.
De hele web scraping-industrie is nu gereduceerd tot één regel code.
Iemand gaat dit gebruiken om elke concurrent zijn website te klonen voor vrijdag. 💀

Cloudflare Developers11 mrt, 05:51
Introductie van de nieuwe /crawl endpoint - één API-aanroep en een hele site gecrawld.
Geen scripts. Geen browserbeheer. Gewoon de inhoud in HTML, Markdown of JSON.

169
Let je nu goed op?
Karpathy heeft net een repo open-source gemaakt waar een AI-agent zijn eigen ML-onderzoek uitvoert. Autonoom. In een lus. Terwijl jij slaapt.
630 regels code. Elke stip in de grafiek is een volledige LLM-trainingsronde.
De AI kiest de architectuur, past de hyperparameters aan, commit de code en begint opnieuw.
Geen menselijke betrokkenheid.
Jij hebt 6 maanden besteed aan een Udemy-cursus om te leren hoe je leersnelheden afstemt.
Deze agent doet het 50 keer voordat je je ochtendkoffie drinkt.
De man die het internet deep learning heeft geleerd, heeft net de onderzoeker geautomatiseerd.
ML PhD's gaan erachter komen dat hun dissertatie een trainingsronde van 5 minuten was op een enkele GPU.

Andrej Karpathy8 mrt, 03:53
Ik heb het "autoresearch" project verpakt in een nieuwe zelfstandige minimale repo als mensen in het weekend willen spelen. Het is in wezen de kern van nanochat LLM-training, teruggebracht tot een versie met één GPU en één bestand van ~630 regels code, dan:
- de mens werkt aan de prompt (.md)
- de AI-agent werkt aan de trainingscode (.py)
Het doel is om je agents te ontwerpen zodat ze de snelste onderzoeksvoortgang oneindig maken zonder enige betrokkenheid van jouw kant. In de afbeelding is elke stip een complete LLM-trainingsronde die precies 5 minuten duurt. De agent werkt in een autonome lus op een git feature branch en accumuleert git-commits naar het trainingsscript terwijl het betere instellingen vindt (met een lagere validatieverlies aan het einde) van de architectuur van het neurale netwerk, de optimizer, alle hyperparameters, enz. Je kunt je voorstellen dat je de onderzoeksvoortgang van verschillende prompts, verschillende agents, enz. vergelijkt.
Deel code, deel sci-fi, en een snufje psychose :)

148
Boven
Positie
Favorieten

