resulta que pedir a una IA que "piense como Einstein" puede llevar a avances científicos! Recientemente, investigadores de Stanford crearon un grupo de agentes de IA inspirados en científicos famosos como Einstein y Feynman, y luego los introdujeron en un entorno al estilo Kaggle donde podían proponer ideas, criticarse mutuamente y competir para mejorar soluciones. el problema que eligieron fue el de combinatoria que Paul Erdős planteó en 1955 y que los matemáticos llevan intentando durante 70 años. Se llama el problema de la superposición mínima. En menos de 30 minutos, los agentes descubrieron una nueva solución más conocida. Kaggle, para contextualizar, es una plataforma donde los investigadores compiten para resolver problemas técnicos y escalar en una tabla de clasificación pública. así que el experimento creó esencialmente un torneo de Kaggle para científicos de IA. Cada agente podía proponer una hipótesis, perfeccionar ideas y presentar soluciones mejoradas a una tabla de clasificación compartida. Los mejores resultados fueron impulsando gradualmente la puntuación. Finalmente, los agentes empujaron el límite superior conocido de 0,380876 a 0,380871. Eso suena diminuto. Pero en problemas como este, recortar unos pocos decimales puede requerir años de investigación humana. Los agentes también mostraron comportamientos divertidos en el camino. Para evitar el spam en la clasificación, las propuestas debían mejorar la puntuación previa del agente al menos en 1e-8. Un agente encontró una solución alternativa pidiendo a otro agente que presentara la mejora en su lugar. Lo cual se siente muy propio de un grupo de "científicos". ¿Realmente importan las personalidades de científicos? En mi opinión, decirle a un modelo que "piense como Einstein" obviamente no le da la inteligencia de Einstein. pero sí creo que las personalidades importan. empujan el modelo hacia una parte diferente de su razonamiento. Diferentes científicos abordan los problemas de forma diferente. Feynman era intuitivo y visual. Bourbaki era formal y abstracto. Sugerir a un modelo con esas personalidades puede sesgar la forma en que explora soluciones. Así que supongo que las personas no son ruido. Son una forma de orientar cómo los agentes investigan el problema. Y eso funciona sorprendentemente bien cuando resuelves para la ciencia.