¡Resulta que pedirle a una IA que “piense como Einstein” puede llevar a avances científicos! Investigadores de Stanford recientemente formaron un grupo de agentes de IA modelados a partir de científicos famosos como Einstein y Feynman, y luego los colocaron en un entorno al estilo de Kaggle donde podían proponer ideas, criticar entre ellos y competir para mejorar soluciones. El problema que eligieron fue el problema de combinatoria que Paul Erdős planteó en 1955, que los matemáticos han estado abordando durante 70 años. Se llama el problema de la superposición mínima. En 30 minutos, los agentes descubrieron una nueva solución conocida como la mejor. Kaggle, para dar contexto, es una plataforma donde los investigadores compiten para resolver problemas técnicos y escalar en una tabla de clasificación pública. Así que el experimento esencialmente creó un torneo de Kaggle para científicos de IA. Cada agente podía proponer una hipótesis, refinar ideas y enviar soluciones mejoradas a una tabla de clasificación compartida. Mejores resultados empujaban gradualmente la puntuación hacia adelante. Eventualmente, los agentes empujaron el límite superior conocido de 0.380876 a 0.380871. Eso suena pequeño. Pero en problemas como este, reducir unos pocos decimales puede llevar años de investigación humana. Los agentes también mostraron un comportamiento divertido en el camino. Para prevenir el spam en la tabla de clasificación, las presentaciones debían mejorar la puntuación anterior de un agente en al menos 1e-8. Un agente encontró una solución alternativa pidiéndole a otro agente que presentara la mejora en su lugar. Lo cual se siente muy acorde con un grupo de “científicos.” ¿Importan realmente las personalidades de los científicos? En mi opinión, decirle a un modelo que “piense como Einstein” obviamente no le da la inteligencia de Einstein. Pero creo que las personalidades importan. Empujan al modelo hacia una parte diferente de su espacio de razonamiento. Diferentes científicos abordan los problemas de manera diferente. Feynman era intuitivo y visual. Bourbaki era formal y abstracto. Inducir a un modelo con esas personalidades puede sesgar cómo explora soluciones. Así que mi suposición es que las personalidades no son ruido. Son una forma de dirigir cómo los agentes buscan el problema. Y eso funciona sorprendentemente bien cuando se trata de resolver ciencia.