Dacă un model nu își permite să simuleze atomii, este nevoit să inventeze "chimia" pentru a prezice rezultatul. Aruncă o privire la acest nou preprint fascinant care oferă o bază teoretică a informației, împreună cu măsuri cuantificabile "De la entropie la epiplexitate" de @m_finzi @ShikaiQiu @yidingjiang @Pavel_Izmailov @zicokolter @andrewgwils. Lucrarea oferă un studiu foarte interesant care arată că observatorii "perfecți" și nelimitati nu sunt obligați să învețe structuri de nivel superior – ei pot pur și simplu să simuleze micro-fizica. De exemplu, pentru a descoperi legi generalizabile semnificative (conținutul structural capturat de Epiplexitate), un sistem trebuie de obicei să fie limitat computațional. Aceste legi pot semăna cu ceea ce oamenii de știință numesc teoria continuului sau la scară macro, dar ele surprind în mod inerent cartografierea functorială într-un model structural independent de scară. Acest lucru este extrem de relevant pentru o gamă largă de aplicații în AI pentru știință și descoperire. De asemenea, se leagă frumos de descoperirile noastre empirice anterioare cu LifeGPT (Jaime Berkovich et al.). În acest caz, aplicând Masca cauzală uitucă, am limitat artificial capacitatea modelului de a se baza pe istorie. Lucrarea oferă o explicație principială, în concordanță cu ceea ce am găsit: această constrângere a forțat modelul să se bazeze mai puțin pe indicii specifice istoriei și, în schimb, să învețe dinamica mai reutilizabilă la nivel înalt a Jocului Vieții într-o lume cu constrângeri de calcul. De asemenea, se aliniază cu rezultatele noastre cu AutomataGPT, unde am constatat că deducerea setului de reguli (problema inversă) produce reprezentări mai bogate decât simularea directă. Teoria susține ideea că rezolvarea sarcinii inverse mai dificile forțează modelul să capteze o structură cauzală eficientă din punct de vedere computațional – extragând efectiv "codul sursă" al sistemului, în loc să potrivească doar tiparele sau să se bazeze pe calcul prin forță brută. @JaimeBerkovich