🚨IK HEB ZOJUIST IETS SCHOKKENDS GELEZEN. Onderzoekers hebben een AI getraind om te voorspellen welke wetenschappelijke ideeën zullen slagen voordat er ook maar één experiment is uitgevoerd. Het is nu beter in het beoordelen van onderzoek dan GPT-5.2, Gemini 3 Pro, en elk top AI-model op de markt. En het heeft geleerd door 2,1 miljoen onderzoeksartikelen te bestuderen zonder dat een enkele menselijke wetenschapper het heeft geleerd wat "goede wetenschap" is. Hier is wat ze deden. Een team van Chinese onderzoekers bouwde twee AI-systemen. De eerste, genaamd Scientific Judge, werd getraind op 700.000 gematchte paren van hoog-geciteerde versus laag-geciteerde artikelen. Elk paar kwam uit hetzelfde vakgebied en dezelfde periode. De enige taak van de AI: uitzoeken welk artikel meer impact zou hebben. Het werkte. De AI voorspelt nu welke onderzoeken zullen slagen met 83,7% nauwkeurigheid. Dat is hoger dan GPT-5.2. Hoger dan Gemini 3 Pro. Hoger dan elk grensmodel dat bestaat. Toen bouwden ze het tweede systeem. Scientific Thinker beoordeelt niet alleen ideeën. Het stelt ze voor. Je geeft het een onderzoeksartikel, en het genereert een vervolgidee met hoge potentiële impact. Bij een directe vergelijking met GPT-5.2 werden de ideeën van Scientific Thinker 61% van de tijd als hoger impact beoordeeld. Het genereert betere onderzoeksrichtingen dan de slimste AI-modellen ter wereld. Het wordt vreemder. Ze trainden de Judge alleen op computerwetenschappen artikelen. Toen testten ze het op biologie. Natuurkunde. Wiskunde. Velden die het nog nooit had gezien. Het werkte nog steeds. 71% nauwkeurigheid op biologieartikelen waarop het nooit was getraind. De AI leerde niet wat goede computerwetenschappen maakt. Het leerde wat goede wetenschap maakt, punt. Toen testten de onderzoekers of het de toekomst kon zien. Ze trainden het op artikelen tot 2024, en vroegen het toen om 2025-artikelen te beoordelen. Het voorspelde welke artikelen traction zouden krijgen met 74% nauwkeurigheid. De AI leerde winnaars te spotten voordat de wetenschappelijke gemeenschap dat deed. Hier is wat niemand bespreekt. Een model met 1,5 miljard parameters, klein naar de normen van vandaag, sprong van 7% naar 72% nauwkeurigheid na training. Dat is een sprong van 65 punten. Het vermogen om wetenschappelijke kwaliteit te beoordelen is geen emergente eigenschap van enorme modellen. Het kan worden geleerd aan kleine, goedkope, snelle AI-systemen die iedereen kan draaien....