Her er et viktig spørsmål som vi må forholde oss til i økende grad etter hvert som AI-for-matematikk-pipelines blir mer vanlige: Hvorfor bryr vi oss om å løse vanskelige problemer? Nesten alltid er svaret *ikke* fordi vi spesielt ønsker at det vanskelige problemet skal løses. (1/12)
David Budden
David Budden5. jan., 22:14
Jeg skjønner egentlig ikke hvorfor dette må sies, men kan vi alle slutte å late som om en buggy linje med matematisk bevis er iboende mer katastrofal enn en buggy kodelinje? Selvfølgelig. Noen er det. Jeg vil tippe (metaforisk!!! at den mediane publiserte matematikkartikkelen har > 0 feil. Uten å ugyldiggjøre.
Spørsmål som eksistensen av globalt glatte løsninger til Navier-Stokes-ligningene er av matematisk interesse, ikke fordi svaret i seg selv er svært viktig, men fordi vi har grunn til å tro at prosessen med å *oppdage* svaret er svært sannsynlig... (2/12)
... å gi dype nye innsikter i analyse, PDE-er, fluiddynamikk osv., med nye teknikker å utnytte. Solving Fermat ga oss (indirekte) Langlands-programmet. Å løse Poincaré ga oss Ricci-flyt. Man håper å løse Navier-Stokes gir oss noe like monumentalt. (3/12)
Faktisk identifiserer vi slike problemer som «interessant vanskelige» nettopp fordi vi intuitivt fornemmer at de representerer et «gap» i vår nåværende forståelse og metoder. Dette er grunnen til at sprøinger som hevder å løse (for eksempel) Riemann-hypotesen ved hjelp av «triks» eller elementære metoder... (4/12)
... misforstår noe poenget: hvis et av disse store problemene viste seg å kunne løses kun ved hjelp av eksisterende matematiske innsikter og teknologi, ville det vært en enorm skuffelse: en kilde vi tidligere trodde fosset ut, er faktisk tørr. (5/12)
Hva har dette med AI å gjøre? Vel, hvis man aksepterer premisset om at vanskelige problemer stort sett er interessante på grunn av de nye innsiktene og forståelsene de gir, reiser det spørsmålet (i lys av AI-utviklingen): hvem har ansvaret for «forståelsen»? (6/12)
Ta bevis ved utmattelse (som i firefargeteoremet), som lenge har blitt ansett som noe kontroversielle, fordi de leverer «epistemisk sikkerhet»-delen av et bevis, uten nødvendigvis å gi noe av «innsikt»-delen (som vanligvis er det vi bryr oss om) (7/12)
Som sådan er bevis ved utmattelse absolutt ikke «feil», men de er på en måte «juks», eller kanskje «selvdestruktiv»: de stenger et potensielt fruktbart problem, samtidig som de utelater nettopp de aspektene ved matematikken som gjør det interessant og verdt å gjøre. (8/12)
Jeg mener at AI-genererte bevis, i fravær av noen form for forståelse eller innsikt fra mennesket som laget dem, bør betraktes på samme måte. Hvis du automatisk genererer et Lean-bevis for et stort teorem, er det flott! Men hvorfor gjorde du det? (9/12)
Hvis du ikke forstår de nye innsiktene/metodene beviset inneholder, har du bare flyttet den intellektuelle byrden bort fra deg selv og over på den som er villig til å lese og forstå det (og forhåpentligvis kommunisere innsiktene til andre). (10/12)
Matematikk er til syvende og sist et menneskelig kulturelt artefakt (sannsynligvis vårt dypeste, rikeste og eldste). Å løse vanskelige problemer skulle bare være en *proxy* for å utvide den artefakten. AI gjør det spennende enkelt å generere nye veier for matematisk forståelse.. (11/12)
... Innenfor det artefaktet, men det gjør det også lettere enn noen gang å oppnå proxyen (dvs. løse vanskelige problemer), samtidig som hele grunnen til at vi brydde oss i utgangspunktet (altså utdyper vår forståelse). Vær så snill, ikke gjør det. (12/12)
246