Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Anubhav
Crawlowanie całej strony internetowej kiedyś zajmowało:
Skrypt w Pythonie.
Playwright lub Selenium.
Rotacja proxy.
Logika ograniczania prędkości.
Obsługa błędów.
3 godziny debugowania, dlaczego strona 47 zwróciła 403.
Teraz to jedno wywołanie API.
Każdy startup zajmujący się web scrapingiem, który zebrał miliony, aby rozwiązać ten problem, właśnie stał się jednym punktem końcowym.
Każdy freelancer, który pobierał 500 dolarów za "wyciąganie danych ze strony", właśnie stracił cały swój model biznesowy na rzecz komendy /crawl.
HTML. Markdown. JSON. Wybierz swój format. Żadne skrypty. Żaden przeglądarka. Żadnych bólów głowy.
Cała branża web scrapingu właśnie została zredukowana do jednej linii kodu.
Ktoś użyje tego, aby sklonować stronę każdego konkurenta do piątku. 💀

Cloudflare Developers11 mar, 05:51
Przedstawiamy nowy punkt końcowy /crawl - jedno wywołanie API i cały serwis zeskrobany.
Bez skryptów. Bez zarządzania przeglądarką. Tylko treść w HTML, Markdown lub JSON.

137
Czy zwracasz teraz uwagę?
Karpathy właśnie udostępnił repozytorium, w którym agent AI prowadzi własne badania ML. Autonomicznie. W pętli. Podczas gdy śpisz.
630 linii kodu. Każda kropka na wykresie to pełne uruchomienie treningu LLM.
AI wybiera architekturę, dostosowuje hiperparametry, zatwierdza kod i zaczyna od nowa.
Bez udziału człowieka.
Spędziłeś 6 miesięcy na kursie Udemy, ucząc się dostosowywania współczynników uczenia.
Ten agent robi to 50 razy przed twoją poranną kawą.
Facet, który nauczył internet głębokiego uczenia, właśnie zautomatyzował badacza.
Doktoraty z ML wkrótce odkryją, że ich praca dyplomowa to było 5-minutowe uruchomienie treningu na pojedynczym GPU.

Andrej Karpathy8 mar, 03:53
Spakowałem projekt "autoresearch" do nowego, samodzielnego minimalnego repozytorium, jeśli ktoś chciałby się pobawić w weekend. To w zasadzie rdzeń treningowy nanochat LLM, uproszczony do wersji na jeden GPU, w jednym pliku o długości ~630 linii kodu, a następnie:
- człowiek iteruje nad promptem (.md)
- agent AI iteruje nad kodem treningowym (.py)
Celem jest zaprojektowanie swoich agentów, aby osiągały najszybszy postęp w badaniach w nieskończoność, bez jakiegokolwiek twojego zaangażowania. Na obrazku każda kropka to pełne uruchomienie treningu LLM, które trwa dokładnie 5 minut. Agent działa w autonomicznej pętli na gałęzi funkcji git i gromadzi commity git do skryptu treningowego, gdy znajduje lepsze ustawienia (o niższej stracie walidacyjnej na końcu) architektury sieci neuronowej, optymalizatora, wszystkich hiperparametrów itd. Możesz sobie wyobrazić porównywanie postępu badań różnych promptów, różnych agentów itd.
Część kodu, część sci-fi i szczypta psychozy :)

108
Najlepsze
Ranking
Ulubione

