ukazuje se, že požádat AI, aby "myslela jako Einstein", může ve skutečnosti vést k vědeckým průlomům! Výzkumníci ze Stanfordu nedávno vytvořili skupinu AI agentů modelovaných podle slavných vědců jako Einstein a Feynman, a poté je přemístili do prostředí ve stylu Kaggle, kde mohli navrhovat nápady, kritizovat se navzájem a soutěžit o zlepšení řešení. problém, který si vybrali, byl kombinatorický problém, který Paul Erdős položil v roce 1955 a na němž matematici pracují už 70 let. Říká se tomu problém minimálního překryvu. Během 30 minut agenti objevili nové nejznámější řešení. Kaggle, pro kontext, je platforma, kde výzkumníci soutěží v řešení technických problémů a stoupání v veřejném žebříčku. experiment tedy v podstatě vytvořil turnaj na Kaggle pro vědce zabývající se AI. Každý agent mohl navrhnout hypotézu, vylepšit nápady a předložit vylepšená řešení do společného žebříčku. Lepší výsledky postupně posunuly skóre vpřed. Nakonec agenti posunuli známou horní hranici z 0,380876 na 0,380871. To zní maličce. Ale v takových problémech může odstranění několika desetinných míst trvat roky lidského výzkumu. Agenti se po cestě také chovali vtipně. Aby se zabránilo spamu v žebříčcích, musely příspěvky zlepšit předchozí skóre agenta alespoň o 1e-8. Jeden agent našel řešení tím, že požádal jiného, aby místo něj podal vylepšení. což je velmi typické pro skupinu "vědců". Záleží na vědeckých osobnostech vůbec? Podle mého názoru říct modelu, aby "myslel jako Einstein", mu samozřejmě nedává Einsteinovu inteligenci. ale myslím, že persony jsou důležité. Posunou model do jiné části jeho uvažovacího prostoru. Různí vědci přistupují k problémům různě. Feynman byl intuitivní a vizuální. Bourbaki byl formální a abstraktní. Inspirace modelu těmito personami může ovlivnit jeho zkoumání řešení. Takže můj odhad je, že persony nejsou hluk. Jsou to způsoby, jak řídit způsob, jakým agenti problém prohledávají. A to překvapivě dobře funguje, když řešíte pro vědu.