Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Sukh Sroay
Будівництво за допомогою ШІ • Обмін тим, що дикує, а які практичні способи розвитку бізнесу за допомогою технологій, штучного інтелекту та робототехніки
🚨 Google ось-ось втратить 50% свого пошукового трафіку до 2028 року.
І хтось щойно створив відкритий код інструменту, який готує ваш вебсайт до того, що буде далі.
Це називається GEO-SEO Claude.
Уявіть це як інструмент для SEO-аудиту, але створений для світу, де ChatGPT, Perplexity, Gemini та Claude — це пошукові системи.
Традиційне SEO оптимізує для позицій Google. Це оптимізує для того, чи буде ШІ цитувати ваш сайт у своїх відповідях.
Зовсім інша гра.
Ось що насправді робить ця штука:
→ Оцінює, наскільки «читабельним» є ваш контент для відповідей ШІ
→ перевіряє, чи можуть 14+ AI-краулери (GPTBot, ClaudeBot, PerplexityBot) взагалі отримати доступ до вашого сайту
→ Сканує згадки вашого бренду на YouTube, Reddit, Вікіпедії, LinkedIn
→ Генерує llms.txt, щоб AI-краулери розуміли структуру вашого сайту
→ Створює схемну наценку, яка дозволяє ШІ розпізнати ваш бізнес як суб'єкт
→ Створює клієнтські PDF-звіти з діаграмами та оцінками
Ось найдивовижніше:
Згадки брендів тепер корелюють у 3 рази сильніше з видимістю ШІ, ніж із зворотними посиланнями. Вся SEO-стратегія просто перевернулася. І лише 23% маркетологів взагалі звертають на це увагу.
Ще одне. Трафік, орієнтований на ШІ, конвертується у 4,4 рази швидше, ніж традиційний органічний пошук. Люди, які надходять через відповіді на ChatGPT, готові купувати.
Вона проходить у межах Claude Code. Одна команда для встановлення. П'ять паралельних агентів аналізують ваш сайт одночасно.
Агентства GEO стягують від 2 до 12 тисяч доларів на місяць за саме такий тип аудиту.
Цей інструмент робить це безкоштовно.
100% відкритий код. Ліцензія MIT.
96
🚨Ніхто не готовий до цієї роботи.
Кожна LLM, яку ви використовуєте, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen має недолік, який жодне масштабування не виправляє.
Вони не можуть відрізнити стару інформацію від нової.
Артеріальний тиск пацієнта: 120 під час сортування. 128 через десять хвилин. 125 при виписці.
"Які останні показники?"
Будь-яка людина: «125, очевидно.»
Кожна LLM, коли накопичується достатньо оновлень: неправильно. Іноді не помиляється. На 100% неправильно. Нульова точність. Повна галюцинація. Кожна модель. Без винятків.
Відповідь лежить у самому кінці введення даних. Прямо перед питанням. Пошуки не потрібні.
Модель просто не може відпустити старі значення.
35 моделей, протестованих дослідниками з UVA та NYU. Усі 35 слідують однаковій математичній кривій смерті. Точність падає лог-лінійно до нуля у міру накопичення застарілої інформації.
Немає плато. Відновлення немає. Просто пряма лінія до повного провалу.
Вони запозичили концепцію з когнітивної психології, яка називається проактивною інтерференцією: старі спогади блокують пригадування нових. У людей цей ефект фіксується на плато. Наш мозок вчиться пригнічувати шум і зосереджуватися на поточному.
LLM ніколи не плато. Вони занепадають, поки не зламаються повністю.
Дослідники перепробували все:
"Забудь старі цінності" — ледве зрушило ситуацію
Ланцюг думок — той самий колапс
Моделі мислення — той самий колапс
Швидка інженерія — у кращому випадку незначне покращення
Але ось висновок, який має змінити ваше ставлення до інфраструктури ШІ:
Стійкість до цієї інтерференції не має кореляції з довжиною контекстного вікна.
Нуль.
Вона корелює лише з кількістю параметрів.
Ваше вікно контексту 128K не є пам'яттю. Це шухляда з мотлохом, у якій модель не може розібратися.
Вся індустрія штучного інтелекту бере плату за довший контекст. У цій статті сказано, що довжина контексту ніколи не була проблемою.
Якщо ви створюєте агенти, системи пам'яті, фінансові інструменти, конвеєри охорони здоров'я або будь-що, що відстежує зміну даних з часом, ви будуєте на цьому недолікі.
І майже ніхто про це не говорить.

15
Найкращі
Рейтинг
Вибране

