Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Sukh Sroay
Costruire con l'IA • Condividere ciò che è strano e quali sono modi pratici per far crescere la propria azienda usando tecnologia, IA e robotica
🚨 Google sta per perdere il 50% del suo traffico di ricerca entro il 2028.
E qualcuno ha appena reso open source lo strumento che prepara il tuo sito web per ciò che verrà dopo.
Si chiama GEO-SEO Claude.
Pensalo come uno strumento di audit SEO, ma costruito per il mondo in cui ChatGPT, Perplexity, Gemini e Claude SONO i motori di ricerca.
Il SEO tradizionale ottimizza per le classifiche di Google. Questo ottimizza per capire se l'IA citerà il tuo sito web nelle sue risposte.
Un gioco completamente diverso.
Ecco cosa fa realmente questo strumento:
→ Valuta quanto è "citabile" il tuo contenuto per le risposte dell'IA
→ Controlla se 14+ crawler IA (GPTBot, ClaudeBot, PerplexityBot) possono persino accedere al tuo sito
→ Scansiona le menzioni del tuo brand su YouTube, Reddit, Wikipedia, LinkedIn
→ Genera llms.txt affinché i crawler IA comprendano la struttura del tuo sito
→ Costruisce markup schema che fa riconoscere la tua attività come un'entità dall'IA
→ Crea report PDF pronti per i clienti con grafici e punteggi
Ecco la parte più sorprendente:
Le menzioni del brand ora correlano 3 volte più fortemente con la visibilità dell'IA rispetto ai backlink. L'intero manuale SEO è appena cambiato. E solo il 23% dei marketer sta prestando attenzione a questo.
Un'altra cosa. Il traffico riferito dall'IA converte a un tasso 4,4 volte superiore rispetto alla ricerca organica tradizionale. Le persone che provengono dalle risposte di ChatGPT sono pronte ad acquistare.
Funziona all'interno di Claude Code. Un comando per installare. Cinque agenti paralleli analizzano il tuo sito simultaneamente.
Le agenzie GEO stanno addebitando da $2K a $12K al mese per questo tipo di audit.
Questo strumento lo fa gratuitamente.
100% Open Source. Licenza MIT.
139
🚨Nessuno è pronto per questo documento.
Ogni LLM che usi, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen ha un difetto che nessuna quantità di scalabilità ha risolto.
Non possono distinguere le informazioni vecchie da quelle nuove.
La pressione sanguigna di un paziente: 120 al triage. 128 dieci minuti dopo. 125 alla dimissione.
"Qual è l'ultima lettura?"
Qualsiasi umano: "125, ovviamente."
Ogni LLM, una volta che si accumulano abbastanza aggiornamenti: sbagliato. Non a volte sbagliato. 100% sbagliato. Zero accuratezza. Completa allucinazione. Ogni modello. Nessuna eccezione.
La risposta si trova proprio alla fine dell'input. Subito prima della domanda. Non è necessaria alcuna ricerca.
Il modello semplicemente non riesce a lasciar andare i valori vecchi.
35 modelli testati da ricercatori della UVA e della NYU. Tutti e 35 seguono esattamente la stessa curva di morte matematica. L'accuratezza scende logaritmicamente a zero man mano che si accumulano informazioni obsolete.
Nessun plateau. Nessun recupero. Solo una linea retta verso il fallimento totale.
Hanno preso in prestito un concetto dalla psicologia cognitiva chiamato interferenza proattiva, in cui i vecchi ricordi bloccano il richiamo di quelli nuovi. Negli esseri umani, questo effetto raggiunge un plateau. I nostri cervelli imparano a sopprimere il rumore e a concentrarsi su ciò che è attuale.
Gli LLM non raggiungono mai un plateau. Declino fino a rompersi completamente.
I ricercatori hanno provato di tutto:
"Dimentica i valori vecchi" - ha mosso a malapena l'ago
Catena di pensiero - stesso crollo
Modelli di ragionamento - stesso crollo
Ingegneria dei prompt - miglioramento marginale al massimo
Ma ecco il risultato che dovrebbe rimodellare il tuo modo di pensare all'infrastruttura AI:
La resistenza a questa interferenza non ha alcuna correlazione con la lunghezza della finestra di contesto.
Zero.
Correlaziona solo con il numero di parametri.
La tua finestra di contesto da 128K non è memoria. È un cassetto disordinato che il modello non riesce a ordinare.
L'intera industria dell'AI ti sta facendo pagare per una finestra di contesto più lunga. Questo documento afferma che la lunghezza del contesto non è mai stata il problema.
Se stai costruendo agenti, sistemi di memoria, strumenti finanziari, pipeline sanitarie, o qualsiasi cosa che tracci dati in cambiamento nel tempo, stai costruendo su questo difetto.
E quasi nessuno ne sta parlando.

62
Principali
Ranking
Preferiti

