Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anubhav
Das Crawlen einer gesamten Website dauerte früher:
Ein Python-Skript.
Playwright oder Selenium.
Proxy-Rotation.
Logik zur Ratenbegrenzung.
Fehlerbehandlung.
3 Stunden Debugging, warum Seite 47 einen 403 zurückgab.
Jetzt ist es ein API-Aufruf.
Jedes Web-Scraping-Startup, das Millionen gesammelt hat, um dieses Problem zu lösen, wurde gerade zu einem einzigen Endpunkt.
Jeder Freelancer, der 500 $ verlangt, um "Website-Daten zu extrahieren", hat sein gesamtes Geschäftsmodell an einen /crawl-Befehl verloren.
HTML. Markdown. JSON. Wählen Sie Ihr Format. Keine Skripte. Kein Browser. Kein Kopfzerbrechen.
Die gesamte Web-Scraping-Industrie wurde gerade auf eine einzige Codezeile reduziert.
Jemand wird dies nutzen, um bis Freitag jede Wettbewerber-Website zu klonen. 💀

Cloudflare Developers11. März, 05:51
Einführung des neuen /crawl Endpunkts - ein API-Aufruf und eine gesamte Website wird durchsucht.
Keine Skripte. Keine Browserverwaltung. Nur der Inhalt in HTML, Markdown oder JSON.

125
Achten Sie gerade darauf?
Karpathy hat gerade ein Repository open-sourced, in dem ein KI-Agent seine eigene ML-Forschung durchführt. Autonom. In einer Schleife. Während Sie schlafen.
630 Zeilen Code. Jeder Punkt im Diagramm ist ein vollständiger LLM-Trainingslauf.
Die KI wählt die Architektur, passt die Hyperparameter an, committet den Code und beginnt von vorne.
Keine menschliche Beteiligung.
Sie haben 6 Monate mit einem Udemy-Kurs verbracht, um das Anpassen von Lernraten zu lernen.
Dieser Agent macht es 50 Mal, bevor Sie Ihren Morgenkaffee haben.
Der Typ, der dem Internet Deep Learning beigebracht hat, hat gerade den Forscher automatisiert.
ML-PhDs werden bald herausfinden, dass ihre Dissertation ein 5-minütiger Trainingslauf auf einer einzigen GPU war.

Andrej Karpathy8. März, 03:53
Ich habe das Projekt "autoresearch" in ein neues, eigenständiges Minimal-Repo verpackt, falls die Leute am Wochenende damit spielen möchten. Es ist im Grunde der Kern des LLM-Trainings von nanochat, der auf eine Version mit einer GPU und einer Datei von ~630 Zeilen Code reduziert wurde, dann:
- der Mensch arbeitet am Prompt (.md)
- der KI-Agent arbeitet am Trainingscode (.py)
Das Ziel ist es, Ihre Agenten so zu konstruieren, dass sie unendlich schnell Fortschritte in der Forschung machen, ohne dass Sie selbst involviert sind. Auf dem Bild ist jeder Punkt ein vollständiger LLM-Trainingslauf, der genau 5 Minuten dauert. Der Agent arbeitet in einer autonomen Schleife auf einem Git-Feature-Branch und sammelt Git-Commits zum Trainingsskript, während er bessere Einstellungen (mit niedrigerem Validierungsverlust am Ende) der Architektur des neuronalen Netzwerks, des Optimierers, aller Hyperparameter usw. findet. Sie können sich vorstellen, den Forschungsfortschritt verschiedener Prompts, verschiedener Agenten usw. zu vergleichen.
Teil Code, Teil Sci-Fi und eine Prise Psychose :)

88
Top
Ranking
Favoriten

