Dieser Beweis von ChatGPT ist tatsächlich beeindruckend und über das hinaus, was ich dachte, dass es mit einer einzigen Anfrage an GPT Pro gelöst werden könnte.
Ich frage mich jedoch, wie viele Erdos-Probleme durch einen Satz von Erdos folgen werden.
Ich habe ein zweites Erdos-Problem (#281) nur mit GPT 5.2 Pro gelöst - keine vorherigen Lösungen gefunden.
Terence Tao nennt es "vielleicht das eindeutigste Beispiel" dafür, dass KI ein offenes Problem löst:
Neue Studien zeigen, wann spektrale Gradientenmethoden (z. B. Muon) im Deep Learning helfen:
1. Wir identifizieren eine weit verbreitete Form von Schlechtbedingungen im DL: Post-Aktivierungs-Matrizen haben einen niedrig stabilen Rang.
2. Wir erklären dann, warum spektrale Methoden trotz dieser Umstände gut abschneiden können.
Langer Thread
Während Simons LLM-Programm im letzten Herbst fragte @mahdisoltanol, ob diese Ungleichung für die Verteilungen p und q wahr ist:
Dₖₗ(p,q) · ∑ᵢ pᵢ(pᵢ−qᵢ) ≤ ∑ᵢ pᵢ · (pᵢ−qᵢ) ln(pᵢ/qᵢ)
Einige von uns waren besessen von der Schranke. Ich erinnere mich, dass @jasondeanlee bis spät in die Nacht nach Gegenbeispielen suchte.
GPT-5 Pro found a counterexample to the NICD-with-erasures majority optimality (Simons list, p.25).
At p=0.4, n=5, f(x) = sign(x_1-3x_2+x_3-x_4+3x_5) gives E|f(x)|=0.43024 vs best majority 0.42904.