Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Aqui está uma questão importante com a qual devemos lidar cada vez mais, à medida que os pipelines de IA para Matemática se tornam mais comuns:
Por que nos importamos em resolver problemas difíceis? Quase sempre, a resposta *não* é porque queremos especialmente que o problema difícil seja resolvido. (1/12)

5 de jan., 22:14
Realmente não sei por que isso precisa ser dito, mas será que podemos parar de fingir que uma linha de prova matemática com bugs é inerentemente mais catastrófica do que uma linha de código com bugs?
Claro. Alguns são. Eu apostaria (metaforicamente!!!) que a média dos artigos de matemática publicados tem > 0 bugs. Sem invalidar.
Questões como a existência de soluções globalmente suaves para as equações de Navier-Stokes são de interesse matemático não porque a resposta em si seja terrivelmente importante, mas porque temos motivos para acreditar que o processo de *descoberta* da resposta é muito provável... (2/12)
... para obter novos insights profundos sobre análise, EDPs, dinâmica dos fluidos, etc., com novas técnicas a serem exploradas. Resolver Fermat nos deu (indiretamente) o programa Langlands. Resolver Poincaré nos deu o fluxo de Ricci. Espera-se que resolver Navier-Stokes nos dê algo igualmente monumental. (3/12)
De fato, identificamos tais problemas como sendo "interessantemente difíceis" justamente porque intuimos que eles representam uma "lacuna" em nosso entendimento e métodos atuais. É por isso que malucos que afirmam resolver (por exemplo) a hipótese de Riemann usando "truques" ou métodos elementares... (4/12)
... estão um pouco perdendo o ponto: se um desses grandes problemas pudesse ser resolvido apenas com insights e tecnologias matemáticas existentes, seria uma imensa decepção: uma fonte que antes achávamos estar a jorrar é, na verdade, seca. (5/12)
O que isso tem a ver com IA? Bem, se aceitarmos a premissa de que problemas difíceis são principalmente interessantes por causa dos novos insights e entendimento que proporcionam, surge a questão (à luz dos avanços da IA): quem é responsável pela parte de "entendimento"? (6/12)
Pegue as demonstrações por exaustão (como no teorema das quatro cores), que há muito são consideradas um tanto controversas, porque entregam a parte da "certeza epistêmica" de uma prova, sem necessariamente entregar a parte do "insight" (que geralmente é o que nos importa) (7/12)
Assim, provas por exaustão certamente não são "erradas", mas são, de certa forma, "trapaça", ou talvez "autodestrutivas": elas encerram um problema potencialmente frutífero, enquanto omitem precisamente aqueles aspectos da matemática que tornam a prática interessante e valiosa para fazer. (8/12)
Acho que as provas geradas por IA, na ausência de qualquer nível de compreensão ou insight por parte do ser humano que as gerou, deveriam ser vistas de forma muito semelhante. Se você gerar automaticamente uma prova Lean de um grande teorema, isso é ótimo! Mas por que você fez isso? (9/12)
Se você não entende os novos insights/métodos que a prova contém, tudo o que fez foi transferir o fardo intelectual de si mesmo para quem estiver disposto a ler e entender (e, com sorte, comunicar os insights contidos nele para outros). (10/12)
A matemática é, em última análise, um artefato cultural humano (provavelmente nosso mais profundo, rico e antigo). Resolver problemas difíceis sempre deveria ser apenas um *proxy* para estender aquele artefato. A IA está tornando extremamente fácil gerar novos caminhos de compreensão matemática... (11/12)
... dentro desse artefato, mas também está tornando mais fácil do que nunca alcançar o proxy (ou seja, resolver problemas difíceis), enquanto não entende o motivo principal pelo qual nos importamos em primeiro lugar (ou seja, aprofundar nossa compreensão).
Por favor, não faça isso. (12/12)
263
Melhores
Classificação
Favoritos
