🚨Właśnie przeczytałem coś szokującego. Naukowcy właśnie wytrenowali AI, aby przewidywało, które pomysły naukowe odniosą sukces, zanim jakikolwiek eksperyment zostanie przeprowadzony. Jest teraz lepsze w ocenie badań niż GPT-5.2, Gemini 3 Pro i każdy czołowy model AI na rynku. I nauczyło się, studiując 2,1 miliona prac badawczych, bez jednego ludzkiego naukowca uczącego je, jak wygląda "dobra nauka". Oto co zrobili. Zespół chińskich badaczy zbudował dwa systemy AI. Pierwszy, nazwany Scientific Judge, został wytrenowany na 700 000 dopasowanych par prac o wysokiej i niskiej cytowalności. Każda para pochodziła z tej samej dziedziny i tego samego okresu. Jedynym zadaniem AI było: ustalić, która praca miałaby większy wpływ. Działało. AI teraz przewiduje, które badania odniosą sukces z dokładnością 83,7%. To więcej niż GPT-5.2. Więcej niż Gemini 3 Pro. Więcej niż każdy istniejący model na granicy. Następnie zbudowali drugi system. Scientific Thinker nie tylko ocenia pomysły. Proponuje je. Dajesz mu pracę badawczą, a on generuje pomysł na kontynuację z dużym potencjałem wpływu. Podczas testów w bezpośrednim starciu z GPT-5.2, pomysły Scientific Thinkera były oceniane jako mające większy wpływ 61% czasu. Generuje lepsze kierunki badań niż najinteligentniejsze modele AI na świecie. Staje się dziwniejsze. Wytrenowali Judge tylko na pracach z informatyki. Następnie przetestowali go na biologii. Fizyce. Matematyce. Dziedzinach, których nigdy wcześniej nie widział. Nadal działało. 71% dokładności w przypadku prac biologicznych, na których nigdy nie był trenowany. AI nie nauczyło się, co czyni dobrą informatykę. Nauczyło się, co czyni dobrą naukę, koniec kropka. Następnie badacze przetestowali, czy potrafi przewidzieć przyszłość. Wytrenowali go na pracach do 2024 roku, a następnie poprosili o ocenę prac z 2025 roku. Przewidział, które z nich zyskają popularność z 74% dokładnością. AI nauczyło się dostrzegać zwycięzców, zanim zrobiła to społeczność naukowa. Oto co nikt nie mówi. Model o 1,5 miliarda parametrów, mały według dzisiejszych standardów, skoczył z 7% do 72% dokładności po treningu. To 65-punktowy skok. Zdolność do oceny jakości naukowej nie jest jakąś emergentną cechą ogromnych modeli. Może być nauczona małym, tanim, szybkim systemom AI, które każdy może uruchomić....