Iată o întrebare importantă cu care trebuie să ne confruntăm tot mai mult pe măsură ce pipeline-urile AI-for-Mathematics devin tot mai comune: De ce ne pasă să rezolvăm probleme dificile? Aproape întotdeauna, răspunsul *nu* este pentru că vrem în mod special ca problema dificilă să fie rezolvată. (1/12)
David Budden
David Budden5 ian., 22:14
Chiar nu știu de ce trebuie spus asta, dar putem să încetăm cu toții să pretindem că o linie de demonstrație matematică cu bug-uri este în mod inerent mai catastrofală decât o linie de cod cu bug-uri? Sigur. Altele sunt. Aș paria (metaforic!!!) că media unui articol de matematică publicat are > 0 bug-uri. Fără să invalideze.
Întrebări precum existența soluțiilor globale netede ale ecuațiilor Navier-Stokes sunt de interes matematic nu pentru că răspunsul în sine este extrem de important, ci pentru că avem motive să credem că procesul de *descoperire* a răspunsului este foarte probabil... (2/12)
... pentru a oferi perspective noi și profunde asupra analizei, EDP-urilor, dinamicii fluidelor etc., cu tehnici noi de exploatat. Rezolvarea lui Fermat ne-a adus (indirect) programul Langlands. Rezolvarea lui Poincaré ne-a dat fluxul lui Ricci. Sperăm ca rezolvarea lui Navier-Stokes să ne ofere ceva la fel de monumental. (3/12)
De fapt, identificăm astfel de probleme ca fiind "interesant de dificile" tocmai pentru că intuim că reprezintă o "lacună" în înțelegerea și metodele noastre actuale. De aceea, nebunii care pretind că rezolvă (să zicem) ipoteza Riemann folosind "trucuri" sau metode elementare... (4/12)
... ratează oarecum esența: dacă una dintre aceste mari probleme s-ar dovedi a putea fi rezolvată doar folosind cunoștințe matematice și tehnologie existente, ar fi o dezamăgire imensă: un izvor pe care anterior îl credeam că se revarsă este, de fapt, uscat. (5/12)
Ce legătură are asta cu AI? Ei bine, dacă acceptăm premisa că problemele dificile sunt în mare parte interesante datorită noilor perspective și înțelegeri pe care le oferă, se ridică întrebarea (în lumina dezvoltărilor AI): cine este responsabil pentru partea de "înțelegere"? (6/12)
Luați demonstrațiile prin epuizare (ca în teorema celor patru culori), care au fost mult timp considerate oarecum controversate, deoarece oferă partea de "certitudine epistemică" a unei demonstrații, fără a oferi neapărat partea de "insight" (care de obicei ne interesează) (7/12)
Astfel, demonstrațiile prin epuizare nu sunt cu siguranță "greșite", dar sunt într-un anumit sens "trișare" sau poate "autodistructive": ele închid o problemă potențial rodnică, eliminând exact acele aspecte ale matematicii care o fac interesantă și demnă de făcut. (8/12)
Cred că demonstrațiile generate de AI, în absența oricărui nivel de înțelegere sau înțelegere din partea omului care le-a generat, ar trebui privite în același mod. Dacă generezi automat o demonstrație Lean a unei teoreme mari, e grozav! Dar de ce ai făcut-o? (9/12)
Dacă nu înțelegi noile perspective/metode pe care le conține demonstrația, atunci tot ce ai făcut a fost să transferi povara intelectuală de la tine însuți către oricine este dispus să o citească și să o înțeleagă (și, sperăm, să comunice perspectivele conținute în ea altora). (10/12)
Matematica este, în cele din urmă, un artefact cultural uman (probabil cel mai profund, bogat și mai vechi al nostru). Rezolvarea problemelor dificile trebuia să fie doar un *proxy* pentru extinderea acelui artefact. AI face ca generarea unor noi căi de înțelegere matematică să fie extrem de ușoară... (11/12)
... În interiorul acelui artefact, dar face și mai ușoară ca niciodată obținerea proxy-ului (adică rezolvarea problemelor dificile), în timp ce ratează întregul motiv pentru care ne-a păsat de la început (adică aprofundarea înțelegerii noastre). Te rog, nu face asta. (12/12)
256