结果表明,要求AI“像爱因斯坦一样思考”实际上可以导致科学突破! 斯坦福大学的研究人员最近组建了一组以爱因斯坦和费曼等著名科学家为模型的AI代理,然后将它们放入一个类似Kaggle的环境中,在那里它们可以提出想法、相互批评,并竞争以改进解决方案。 他们选择的问题是保罗·厄尔德什在1955年提出的组合问题,数学家们已经研究了70年。这个问题被称为最小重叠问题。 在30分钟内,这些代理发现了一个新的最佳已知解决方案。 Kaggle,作为背景,是一个研究人员竞争解决技术问题并攀登公共排行榜的平台。 因此,这个实验本质上为AI科学家创建了一个Kaggle比赛。每个代理可以提出假设、完善想法,并将改进的解决方案提交到共享排行榜。更好的结果逐渐推动分数向前发展。 最终,代理将已知的上限从0.380876推高到0.380871。 这听起来很小。但在这样的难题中,削减几个小数位可能需要数年的人工研究。 在此过程中,代理们还表现出一些有趣的行为。为了防止排行榜垃圾邮件,提交必须至少比代理之前的分数提高1e-8。一名代理找到了一种变通方法,要求另一名代理提交改进。 这感觉非常符合一群“科学家”的品牌形象。 科学家的人物设定真的重要吗? 在我看来,告诉模型“像爱因斯坦一样思考”显然并不能赋予它爱因斯坦的智慧。但我确实认为人物设定是重要的。它们引导模型进入其推理空间的不同部分。 不同的科学家以不同的方式处理问题。费曼是直观和视觉的。布尔巴基是正式和抽象的。用这些人物设定来提示模型可以影响它探索解决方案的方式。 所以我猜这些人物设定并不是噪音。它们是一种引导代理搜索问题的方法。当你在为科学解决问题时,这种方法出奇地有效。