🚨 斯坦福大学的研究人员刚刚揭示了一个几乎没有人谈论的AI奇怪副作用。 这篇论文名为“人工蜂群”。核心发现令人不安。 随着语言模型的不断进步,它们的声音也开始变得越来越相似。 不仅仅是在单一模型内。跨不同模型之间也是如此。 研究人员构建了一个名为INFINITY-CHAT的数据集,包含26,000个真实的开放式问题,比如创意写作、头脑风暴、意见和建议。这些问题没有单一的正确答案。 理论上,这些提示应该产生巨大的多样性。 但结果恰恰相反。 出现了两种模式: 1) 模型内部重复 同一模型在多次运行中不断产生非常相似的答案。 2) 模型间同质性 完全不同的模型生成惊人相似的回应。 换句话说: 我们并没有得到成千上万的独特视角…… 而是不断回收相同的几个想法。 作者称之为“人工蜂群”。 ...