AIに「アインシュタインのように考えろ」と頼むことが、実際に科学的な突破口につながることがわかりました! スタンフォードの研究者たちは最近、アインシュタインやファインマンのような有名な科学者をモデルにしたAIエージェントのグループを立ち上げ、Kaggleのような環境に放り込み、アイデアを提案し、互いに批評し合い、解決策の改善を競い合う形で配置しました。 彼らが選んだ問題は、1955年にポール・エルデシュが提起した組合せ論の問題で、数学者たちは70年間試し続けてきたものでした。これを最小重なり問題と呼びます。 30分以内に、エージェントたちは新しく最もよく知られた解決策を発見しました。 参考までに言うと、Kaggleは研究者が技術的な問題を解決し、公開リーダーボードで競い合うプラットフォームです。 つまり、この実験は本質的にAI科学者のためのカグルトーナメントを作り出したのです。各エージェントは仮説を提案し、アイデアを洗練させ、改良された解決策を共有リーダーボードに提出することができました。より良い結果が徐々にスコアを押し上げていきました。 最終的にエージェントたちは既知の上限値を0.380876から0.380871へと押し上げました。 それは小さく聞こえますね。しかし、このような問題では、小数点以下の数桁を削るだけでも人間の研究が何年もかかることがあります。 捜査官たちは途中で面白い行動も見せました。リーダーボードのスパムを防ぐために、投稿はエージェントの前回スコアを少なくとも1e-8以上上げる必要がありました。あるエージェントは、別のエージェントに改善案を提出してもらうことで回避策を見つけました。 これは「科学者」のグループにしてはとても彼らしいことだと感じます。 科学者のペルソナは本当に重要なのでしょうか? 私の意見では、モデルに「アインシュタインのように考えろ」と言っても、明らかにアインシュタインの知性は与えられません。でもペルソナは重要だと思います。彼らはモデルを推論空間の別の部分へと押しやります。 科学者によって問題へのアプローチは異なります。ファインマンは直感的で視覚的でした。ブルバキは形式的で抽象的でした。そうしたペルソナを持つモデルにプロンプトを出すと、解決策の探求に偏りが生じる可能性があります。 だから私の推測では、ペルソナはノイズではないのだと思います。それはエージェントが問題を探す方法を導く手段です。そして、科学の解答をするときには驚くほどうまく機能します。