Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 DeepSeek щойно зробив щось дике.
Вони створили математичну модель, яка не просто розв'язує задачі, а перевіряє власні докази, критикує себе, виправляє логіку і пробує знову, поки не знаходить жодної помилки.
Остання частина — це прорив у моделі, яка може перевірити власне обґрунтування перед тим, як ви її перевірите.
І результати абсурдні:
• Результати на рівні золота на IMO 2025
• Результати золотого рівня на CMO 2024
• 118/120 на Putnam 2024 майже ідеально, перевершуючи будь-який людський результат
• Перевершує GPT-5 Thinking і Gemini 2.5 Pro у найскладніших категоріях
Те, що робить DeepSeek Math V2 божевільною, — це не точність, а архітектура, що стоїть за нею.
Вони не ганялися за більшими моделями чи довшими думками.
Вони побудували екосистему:
✓ Спеціалізований перевіркувач, який шукає логічні прогалини
✓ мета-верифікатор, який перевіряє, чи галюцинує верифікатор
✓ Генератор доказів, який вчиться боятися поганого мислення
✓ і тренувальний цикл, де модель постійно генерує складніші докази, що змушують перевірювача еволюціонувати
Цей цикл жорстокий:
Генеруйте → перевіряйте → мета-верифікація → виправляйте → повторюйте.
Основна проблема, яку вони вирішили: точність остаточної відповіді нічого не означає у доведення теорем. Ви можете отримати правильне число з поганою логікою. Тож вони навчили перевіряюча, щоб оцінювати сам доказ, а не остаточну відповідь.
...

Найкращі
Рейтинг
Вибране

