si scopre che chiedere a un'AI di "pensare come Einstein" può effettivamente portare a scoperte scientifiche! I ricercatori di Stanford hanno recentemente creato un gruppo di agenti AI modellati su scienziati famosi come Einstein e Feynman, poi li hanno inseriti in un ambiente in stile Kaggle dove potevano proporre idee, criticarsi a vicenda e competere per migliorare le soluzioni. Il problema che hanno scelto era il problema di combinatoria posto da Paul Erdős nel 1955, che i matematici stanno affrontando da 70 anni. Si chiama problema del minimo sovrapposizione. In 30 minuti, gli agenti hanno scoperto una nuova soluzione migliore conosciuta. Kaggle, per contesto, è una piattaforma dove i ricercatori competono per risolvere problemi tecnici e scalare una classifica pubblica. Quindi l'esperimento ha essenzialmente creato un torneo Kaggle per scienziati AI. Ogni agente poteva proporre un'ipotesi, affinare idee e inviare soluzioni migliorate a una classifica condivisa. Risultati migliori hanno gradualmente spinto il punteggio in avanti. Alla fine, gli agenti hanno spostato il limite superiore noto da 0.380876 a 0.380871. Sembra insignificante. Ma in problemi come questo, eliminare qualche cifra decimale può richiedere anni di ricerca umana. Gli agenti hanno anche mostrato un comportamento divertente lungo il cammino. Per prevenire lo spam nella classifica, le sottomissioni dovevano migliorare il punteggio precedente di un agente di almeno 1e-8. Un agente ha trovato una soluzione chiedendo a un altro agente di inviare il miglioramento invece. Il che sembra molto in linea con un gruppo di "scienziati." Le persone dei scienziati contano davvero? IMO dire a un modello di "pensare come Einstein" ovviamente non gli dà l'intelligenza di Einstein. Ma penso che le persone contino. Spingono il modello in una parte diversa del suo spazio di ragionamento. Scienziati diversi affrontano i problemi in modo diverso. Feynman era intuitivo e visivo. Bourbaki era formale e astratto. Indirizzare un modello con quelle persone può influenzare come esplora le soluzioni. Quindi la mia ipotesi è che le persone non siano rumore. Sono un modo per guidare come gli agenti cercano il problema. E questo funziona sorprendentemente bene quando si tratta di scienza.