Veldig interessant arbeid om hvordan empirisk forskning må svare på AI-æraen. Konvensjonell statistisk testing med p-verdier kommer fra en verden der hver test ble ansett som ganske kostbar. AI gjør nå hver test i praksis gratis å kjøre. Noen viktige punkter fra sammendraget: --"Vi beviser at screening kollapser når testing blir billig med mindre det nødvendige antallet robusthetssjekker skalerer i det minste lineært i den inverse kostnaden for hver test" --"Vi argumenterer for behovet for å utvikle metoder for å tolke sett med mange spesifikasjoner samtidig" Ja! Jeg vet fortsatt ikke helt hvordan dette vil se ut og føles, men det er tydeligvis det som kreves. Og den må kutte i begge retninger: (1) Fange og avskrekke utvalgte forskningsfunn Men like viktig: (2) Oppdage og belønne gode funn. Nummer 2 her kan på noen måter vise seg å være vanskeligere. All intuisjonen vår ser ut til å handle om å vise at et funn er «mindre robust» enn vi trodde, og krever en falsk følelse av perfeksjon ut fra publiserte resultater. Når vi kan se hele konstellasjonen av funn, må vi finne riktig måte å være mer velvillige/realistiske rundt hva som regnes som nyttig informasjon.