Hier is een belangrijke vraag waar we steeds meer mee te maken krijgen naarmate AI-voor-Wiskunde pipelines gebruikelijker worden: Waarom geven we om het oplossen van moeilijke problemen? Bijna altijd is het antwoord *niet* omdat we het moeilijk probleem per se opgelost willen hebben. (1/12)
David Budden
David Budden5 jan, 22:14
Ik weet echt niet waarom dit gezegd moet worden, maar kunnen we allemaal stoppen met doen alsof een foutieve regel wiskundig bewijs inherent catastrofaler is dan een foutieve regel code? Zeker. Sommige zijn dat. Ik zou (metaforisch!!!!) wedden dat het mediane gepubliceerde wiskundige artikel > 0 bugs heeft. Zonder ongeldig te maken.
Vragen zoals het bestaan van wereldwijd gladde oplossingen voor de Navier-Stokes-vergelijkingen zijn van wiskundig belang, niet omdat het antwoord zelf vreselijk belangrijk is, maar omdat we reden hebben om te geloven dat het proces van *ontdekken* van het antwoord zeer waarschijnlijk is... (2/12)
...om diepere nieuwe inzichten te bieden in analyse, PDE's, vloeistofdynamica, enz., met nieuwe technieken om te benutten. Het oplossen van Fermat gaf ons (indirect) het Langlands-programma. Het oplossen van Poincaré gaf ons Ricci-stroom. Men hoopt dat het oplossen van Navier-Stokes ons iets even monumentaals geeft. (3/12)
Inderdaad, we identificeren dergelijke problemen als "interessant moeilijk" precies omdat we intuïtief aanvoelen dat ze een "kloof" in ons huidige begrip en onze methoden vertegenwoordigen. Dit is waarom gekken die beweren (bijvoorbeeld) de Riemann-hypothese op te lossen met "trucs" of elementaire methoden... (4/12)
...missen enigszins de kern: als een van deze grote problemen oplosbaar blijkt te zijn met alleen bestaande wiskundige inzichten en technologie, zou dat een enorme teleurstelling zijn: een bron waarvan we dachten dat deze rijkelijk stroomde, is in feite droog. (5/12)
Wat heeft dit te maken met AI? Wel, als men de premisse accepteert dat moeilijke problemen vooral interessant zijn vanwege de nieuwe inzichten en het begrip dat ze opleveren, dan roept dit de vraag op (in het licht van AI-ontwikkelingen): wie is verantwoordelijk voor het "begrip"-gedeelte? (6/12)
Neem bewijzen door uitputting (zoals in de vierkleurenstelling), die al lange tijd als enigszins controversieel worden beschouwd, omdat ze het "epistemische zekerheid"-gedeelte van een bewijs leveren, zonder noodzakelijkerwijs een van de "inzicht"-gedeelten te leveren (wat meestal is waar we om geven) (7/12)
Als zodanig zijn bewijzen door uitputting zeker niet "fout", maar ze zijn in zekere zin "vals", of misschien "zelfondermijnend": ze sluiten een potentieel vruchtbaar probleem af, terwijl ze precies die aspecten van de wiskunde verdoezelen die het interessant en de moeite waard maken om te doen. (8/12)
Ik denk dat AI-gegenereerde bewijzen, in de afwezigheid van enig niveau van begrip of inzicht van de mens die ze heeft gegenereerd, op dezelfde manier moeten worden beschouwd. Als je automatisch een Lean-bewijs van een grote stelling genereert, is dat geweldig! Maar waarom heb je het gedaan? (9/12)
Als je de nieuwe inzichten/methoden die het bewijs bevat niet begrijpt, dan heb je alleen de intellectuele last van jezelf afgeschoven en op degene gelegd die bereid is het te lezen en te begrijpen (en, hopelijk, de daarin vervatte inzichten aan anderen te communiceren). (10/12)
Wiskunde is uiteindelijk een menselijk cultureel artefact (waarschijnlijk ons diepste, rijkste en oudste). Het oplossen van moeilijke problemen was ooit bedoeld als een *proxy* voor het uitbreiden van dat artefact. AI maakt het opwindend gemakkelijk om nieuwe paden van wiskundig begrip te genereren.. (11/12)
...binnen dat artefact, maar het maakt het ook gemakkelijker dan ooit om de proxy te bereiken (d.w.z. moeilijke problemen op te lossen), terwijl we de hele reden vergeten waarom we er in de eerste plaats om gaven (d.w.z. ons begrip verdiepen). Doe dat alsjeblieft niet. (12/12)
258