Aquí hay una pregunta importante con la que debemos lidiar cada vez más a medida que las canalizaciones de IA para Matemáticas se vuelven más habituales: ¿Por qué nos importa resolver problemas difíciles? Casi siempre, la respuesta *no* es porque queremos especialmente que el problema difícil se resuelva. (1/12)
David Budden
David Budden5 ene, 22:14
Realmente no sé por qué hay que decirlo, pero ¿podemos dejar de fingir que una línea de prueba matemática con errores es inherentemente más catastrófica que una línea de código con fallos? Claro. Algunos sí. Apostaría (metafóricamente!!!) a que la mediana de los artículos de matemáticas publicados tiene > 0 errores. Sin invalidarlo.
Cuestiones como la existencia de soluciones globalmente suaves a las ecuaciones de Navier-Stokes son de interés matemático no porque la respuesta en sí sea terriblemente importante, sino porque tenemos motivos para creer que el proceso de *descubrir* la respuesta es muy probable... (2/12)
... para aportar nuevas y profundas perspectivas sobre análisis, EDP, dinámica de fluidos, etc., con nuevas técnicas a explotar. Resolver Fermat nos dio (indirectamente) el programa Langlands. Resolver Poincaré nos dio el flujo de Ricci. Uno espera que resolver Navier-Stokes nos dé algo igual de monumental. (3/12)
De hecho, identificamos estos problemas como "interesantemente difíciles" precisamente porque intuimos que representan una "laguna" en nuestra comprensión y métodos actuales. Por eso los chiflados que dicen resolver (por ejemplo) la hipótesis de Riemann usando "trucos" o métodos elementales... (4/12)
... están un poco perdiendo el punto: si uno de estos grandes problemas resultara ser solucionable solo con conocimientos y tecnología matemática existentes, sería una enorme decepción: un manantial que antes pensábamos que estaba brotando es, de hecho, seco. (5/12)
¿Qué tiene que ver esto con la IA? Bueno, si uno acepta la premisa de que los problemas difíciles son sobre todo interesantes por los nuevos conocimientos y comprensión que ofrecen, surge la pregunta (a la luz de los avances en IA): ¿quién es responsable de la parte de "entender"? (6/12)
Tomemos las demostraciones por agotamiento (como en el teorema de los cuatro colores), que durante mucho tiempo se han considerado algo controvertidas, porque entregan la parte de "certeza epistémica" de una demostración, sin necesariamente aportar la parte de "insight" (que suele ser lo que nos importa) (7/12)
Por tanto, las demostraciones por agotamiento ciertamente no son "erróneas", pero en cierto sentido son "hacer trampa", o quizás "autodestruirse": cierran un problema potencialmente fructífero, mientras eliminan precisamente aquellos aspectos de las matemáticas que lo hacen interesante y valioso de hacer. (8/12)
Creo que las pruebas generadas por IA, en ausencia de cualquier nivel de comprensión o comprensión por parte del ser humano que las generó, deberían considerarse de forma muy similar. Si auto-generas una demostración Lean de un gran teorema, ¡genial! ¿Pero por qué lo hiciste? (9/12)
Si no entiendes las nuevas ideas o métodos que contiene la demostración, entonces todo lo que has hecho es trasladar la carga intelectual de ti mismo a quien esté dispuesto a leerla y entenderla (y, con suerte, comunicar las ideas contenidas a otros). (10/12)
Las matemáticas son, en última instancia, un artefacto cultural humano (probablemente las más profundas, ricas y antiguas). Resolver problemas difíciles solo se suponía que era un *proxy* para extender ese artefacto. La IA está haciendo que sea emocionantemente fácil generar nuevos caminos de comprensión matemática... (11/12)
... dentro de ese artefacto, pero también está haciendo más fácil que nunca alcanzar el proxy (es decir, resolver problemas difíciles), mientras que se nos escapa la razón por la que nos importaba en primer lugar (es decir, profundizar nuestra comprensión). Por favor, no hagas eso. (12/12)
263