Crawling un intero sito web richiedeva: Uno script Python. Playwright o Selenium. Rotazione dei proxy. Logica di limitazione della velocità. Gestione degli errori. 3 ore di debug per capire perché la pagina 47 restituiva un 403. Ora è una sola chiamata API. Ogni startup di web scraping che ha raccolto milioni per risolvere questo problema è diventata un unico endpoint. Ogni freelancer che chiedeva $500 per "estrarre dati da un sito web" ha appena perso l'intero modello di business a favore di un comando /crawl. HTML. Markdown. JSON. Scegli il tuo formato. Niente script. Niente browser. Niente mal di testa. L'intera industria del web scraping è stata ridotta a una sola riga di codice. Qualcuno userà questo per clonare il sito di ogni concorrente entro venerdì. 💀