跳转至主要内容
行情
扫链
策略
追踪
追踪聪明钱地址,实时监控动态
跟单
探索链上交易,一键跟单获取收益
信号
关注聪明钱信号,发现早期机会
兑换
资产
邀请计划
Onchain OS
开发者中心
文档
API Key 管理
X Layer
了解 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
区块链浏览器
更多
DeFi
市场
安全中心
Boost
X Launch
参与 X Launch,抢先赚新币
X Campaign
参与活动,赢取丰厚奖励
奖励中心
领取奖励和空投
预警
语言
货币
DEX 功能
颜色设置
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
Türkçe
返回
返回
学院
帮助中心
返回
自动翻译代币名称
自动翻译 X 内容
悬停显示代币卡片
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
+0.74%
USELESS
-0.87%
IKUN
-1.63%
gib
-6.95%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
-0.73%
ALON
+0.89%
LAUNCHCOIN
-5.57%
GOONC
0.00%
KLED
-6.92%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
-1.7%
Boopa
+2.56%
PORK
0.00%
主页
Sukh Sroay
用人工智能构建 • 分享利用技术、人工智能和机器人技术实现业务增长的有趣与实用方法
查看原文
Sukh Sroay
5 小时前
🚨突发消息:AI现在可以像每月$25K的代理文案撰写人一样撰写广告(免费)。 以下是12个Claude提示,替代了David Ogilvy的整个剧本。 在它被埋没之前保存这个线程:
20
Sukh Sroay
10 小时前
🚨 谷歌将在2028年前失去50%的搜索流量。 而且有人刚刚开源了一个工具,帮助你的网站为接下来的变化做好准备。 它叫做GEO-SEO Claude。 可以把它看作是一个SEO审计工具,但它是为ChatGPT、Perplexity、Gemini和Claude成为搜索引擎的世界而构建的。 传统的SEO是为了优化谷歌排名。这是为了优化AI是否会在其回答中引用你的网站。 完全不同的游戏。 这个工具实际上做了什么: → 评分你的内容在AI回答中有多"可引用" → 检查14个以上的AI爬虫(GPTBot、ClaudeBot、PerplexityBot)是否能够访问你的网站 → 扫描你在YouTube、Reddit、维基百科、LinkedIn上的品牌提及 → 生成llms.txt,以便AI爬虫理解你的网站结构 → 构建模式标记,使AI将你的业务识别为一个实体 → 创建客户准备好的PDF报告,包含图表和评分 最疯狂的部分是: 品牌提及与AI可见性之间的相关性现在比反向链接强3倍。整个SEO策略刚刚翻转。而且只有23%的营销人员对此保持关注。 还有一件事。AI推荐的流量转化率是传统自然搜索的4.4倍。来自ChatGPT回答的人准备好购买。 它在Claude Code内部运行。一个命令即可安装。五个并行代理同时分析你的网站。 GEO代理机构为这种类型的审计收费$2K到$12K每月。 这个工具是免费的。 100%开源。MIT许可证。
135
Sukh Sroay
3月11日 22:41
🚨没有人准备好这篇论文。 你使用的每个LLM,GPT-4.1、Claude、Gemini、DeepSeek、Llama-4、Grok、Qwen都有一个缺陷,任何规模的扩展都无法修复。 它们无法区分旧信息和新信息。 一位患者的血压:初诊时120,十分钟后128,出院时125。 “最新的读数是多少?” 任何人类:“125,显然。” 每个LLM,一旦足够的更新堆积起来:错误。不是偶尔错误。100%错误。零准确率。完全幻觉。每个模型。没有例外。 答案就在输入的最末尾。就在问题之前。不需要搜索。 模型就是无法放弃旧值。 由UVA和NYU的研究人员测试的35个模型。所有35个都遵循完全相同的数学死亡曲线。随着过时信息的积累,准确率以对数线性下降到零。 没有平台期。没有恢复。只是直线走向彻底失败。 它们借用了一个来自认知心理学的概念,称为前摄干扰,旧记忆阻碍新记忆的回忆。在人类中,这种效应会达到平台期。我们的脑子学会抑制噪音,专注于当前的内容。 LLM从未达到平台期。它们会下降,直到完全崩溃。 研究人员尝试了一切: “忘记旧值”——几乎没有效果 思维链——同样崩溃 推理模型——同样崩溃 提示工程——最多边际改善 但这里有一个发现,应该重塑你对AI基础设施的思考: 对这种干扰的抵抗与上下文窗口长度没有任何相关性。 零。 它只与参数数量相关。 你的128K上下文窗口不是记忆。它是模型无法整理的杂物抽屉。 整个AI行业都在向你收取更长上下文的费用。这篇论文说上下文长度从来不是问题。 如果你正在构建代理、记忆系统、金融工具、医疗管道,或任何跟踪随时间变化的数据的东西,你就是在这个缺陷之上构建。 几乎没有人谈论这个问题。
59
热门
排行
收藏