Znacznie głębszym problemem w nauce nie są te oczywiste błędy. To teorie i twierdzenia, które są błędne - oparte na artefaktach eksperymentalnych, błędach logicznych lub skrajnie przesadzonych interpretacjach - a mimo to pozostają w dyskusji przez lata lub dekady, ponieważ zostały opublikowane w prestiżowych czasopismach lub twierdzone przez wpływowe autorytety i nigdy nie były poważnie kwestionowane. Te badania stają się fundamentami całych ekosystemów badawczych. Tysiące grantów jest finansowanych. Kariera jest budowana wokół nich, w tym wysokie stanowiska administracyjne. Uniwersytety wydają miliony na rekrutację ludzi na podstawie tych narracji. To tutaj leży kryzys reprodukowalności - nie w łatwo wykrywalnych problemach z obrazami, ale w wpływowych pomysłach, które nadal kształtują system naukowy długo po tym, jak ich fundamenty powinny były zostać zakwestionowane. Tego rodzaju momenty „złapania na gorącym uczynku” związane z problemami z obrazami są jednymi z najłatwiejszych problemów do wykrycia i skorygowania. Zwykle pojawiają się w mniejszych czasopismach z ograniczonymi zasobami redakcyjnymi i recenzyjnymi, gdzie ludzie już podejrzewają, że wiele z tych prac przypomina produkcję z fabryk papierowych i traktują to odpowiednio. AI może teraz wykrywać większość tych problemów niemal natychmiast.