🚨JEG LESTE NETTOPP NOE SJOKKERENDE. Forskere har bare trent en AI til å forutsi hvilke vitenskapelige ideer som vil lykkes før noe eksperiment blir gjennomført. Den er nå bedre til å vurdere forskning enn GPT-5.2, Gemini 3 Pro og alle de beste AI-modellene på markedet. Og den lærte ved å studere 2,1 millioner forskningsartikler uten at en eneste menneskelig forsker lærte den hvordan «god vitenskap» ser ut. Her er hva de gjorde. Et team av kinesiske forskere bygde to AI-systemer. Den første, kalt Scientific Judge, ble trent på 700 000 matchede par av artikler med høy sitering versus lav sitering. Hvert par kom fra samme felt og samme tidsperiode. AI-ens eneste oppgave: å finne ut hvilket papir som vil ha størst innvirkning. Det fungerte. AI-en forutsier nå hvilken forskning som vil lykkes med 83,7 % nøyaktighet. Det er høyere enn GPT-5.2. Høyere enn Gemini 3 Pro. Høyere enn alle Frontier-modeller som finnes. Så bygde de det andre systemet. Scientific Thinker dømmer ikke bare ideer. Den foreslår dem. Du gir det en forskningsartikkel, og det genererer en oppfølgingsidee med stor potensial for effekt. Når de ble testet direkte mot GPT-5.2, ble Scientific Thinkers ideer vurdert som høyest innvirkning 61 % av gangene. Den genererer bedre forskningsretninger enn de smarteste AI-modellene i verden. Det blir merkeligere. De trente dommeren kun på datavitenskapelige oppgaver. Deretter testet de det på biologi. Fysikk. Matematikk. Jorder den aldri hadde sett. Det fungerte fortsatt. 71 % nøyaktighet på biologiartikler den aldri ble trent på. AI-en lærte ikke hva som gjør god informatikk. Den lærte hva som gjør god vitenskap, punktum. Deretter testet forskerne om den kunne se inn i fremtiden. De trente den på artikler frem til 2024, og ba den deretter vurdere 2025-oppgaver. Den forutsa hvilke som ville få fotfeste med 74 % nøyaktighet. AI-en lærte å oppdage vinnere før det vitenskapelige miljøet gjorde det. Her er det ingen snakker om. En modell med 1,5 milliarder parametere, liten etter dagens standard, hoppet fra 7 % til 72 % nøyaktighet etter trening. Det er et sprang på 65 prosentpoeng. Evnen til å vurdere vitenskapelig kvalitet er ikke en fremvoksende egenskap ved massive modeller. Det kan læres til små, billige, raske AI-systemer som hvem som helst kan kjøre....