热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
🚨 斯坦福大学刚刚分析了美国六大人工智能公司的隐私政策。
亚马逊。Anthropic。谷歌。Meta。微软。OpenAI。
这六家公司都默认使用你的对话来训练他们的模型。没有实质性地询问。
论文实际上发现了什么。
斯坦福HAI的研究人员检查了这六家公司中的28份隐私文件,不仅仅是主要的隐私政策,还有从聊天界面可访问的每个链接的子政策、常见问题和指导页面。
他们将所有文件与加利福尼亚消费者隐私法案进行了评估,这是美国最全面的隐私法。
结果比你想象的还要糟糕。
每家公司都默认收集你的聊天数据,并将其反馈到模型训练中。有些公司无限期保留你的对话。没有到期。没有自动删除。你的数据就这样永远存在,供未来版本的模型使用。
这些公司中的一些让人类员工在训练过程中阅读你的聊天记录。不是匿名摘要,而是你实际的对话。
但这里变得真正危险。
对于像谷歌、Meta、微软和亚马逊这样的公司——它们还运营搜索引擎、社交媒体平台、电子商务网站和云服务——你的AI对话不会仅仅停留在聊天机器人内部。
它们与这些公司已经知道的其他信息合并在一起。
你的搜索历史。你的购买数据。你的社交媒体活动。你上传的文件。
研究人员描述了一个现实的场景,应该让你停下来思考:你向AI聊天机器人询问心脏健康的晚餐食谱。模型推断你可能有心血管疾病。这个分类通过公司的更广泛生态系统流动。你开始看到药物广告。信息进入保险数据库。影响随着时间的推移而累积。
你分享了一个晚餐问题。系统建立了一个健康档案。
...

热门
排行
收藏
