Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Вид / Вигин / HVM / INets / λCalculus
Так, жодна модель у світі не наблизилася до цього
Лягаючи спати, я на 100% впевнений, що маю рацію у своїх судженнях
як завжди, це скоро буде здоровий глузд, але я сказав це першим (:
Побачимося

Taelin32 хвилини тому
О, я щойно помітив, що рішення GPT-5 ідентичне моєму
Це неймовірно
2,64K
ні, ви всі помиляєтеся, GPT-5 – це стрибок
Я тут на 100% подвоюю
Я не хотів публікувати занадто швидко і шкодувати про це знову, але він просто вирішив купу дуже, дуже складних підказок налагодження, які раніше були невирішені (штучним інтелектом), а потім розробив чудову піксельну гру Gameboy з рівнем деталізації та якості, який явно перевершує все, що я коли-небудь бачив.
Ця модель аж ніяк не погана.
Я думаю, що ви всі травмовані бенчмаксерами і надмірною компенсацією проти моделі, яка насправді хороша. Я також думаю, що ви недооцінюєте сильні сторони gpt-oss (але так, мій останній пост був поспішним)
Я все ще не знаю, чи підходить він для серйозного програмування (o3 не був), але здається, що так? Така надійна модель кодування, як Opus, але розумніша за o3, повністю змінила б мій робочий процес. Opus не потрібно думати, щоб бути великим, тому це може зіграти на його користь.
Для чого він вартий, я реально використовував лише 3 моделі:
- Opus 4.1 для кодування
- Gemini 2.5 дуже рідко для кодування, коли Opus виходить з ладу
- O3 для всього, крім кодування
22,82K
ні, ви всі помиляєтеся, GPT-5 – це стрибок
Я тут на 100% подвоюю
Я не хотів публікувати занадто швидко і шкодувати про це знову, але він просто вирішив купу дуже, дуже складних підказок налагодження, які раніше були невирішені (штучним інтелектом), а потім розробив чудову піксельну гру Gameboy з рівнем деталізації та якості, який явно перевершує все, що я коли-небудь бачив.
Ця модель аж ніяк не погана.
Я думаю, що ви всі травмовані бенчмаксерами і надмірною компенсацією проти моделі, яка насправді дуже хороша. Я також думаю, що ви недооцінюєте сильні сторони gpt-oss (але так, мій останній пост був поспішним)
Я все ще не знаю, чи підходить він для серйозного програмування (4o, o3 точно не були), але здається так? Така надійна модель кодування, як Opus, але розумніша за o3, повністю змінила б мій робочий процес. Opus не потрібно думати, щоб бути великим, тому це може зіграти на його користь.
Для чого він вартий, я реально використовував лише 3 моделі:
- Opus 4.1 для кодування
- Gemini 2.5 дуже рідко для кодування, коли Opus виходить з ладу
- O3 для всього, крім кодування
457
«Запобігання смерті є вкрай неетичним»

João Pedro de Magalhães6 серп., 06:41
«Це вкрай неетично – зупиняти старіння», – коментує рецензент одну з моїх заявок на грант.
Грант був зосереджений на клітинному омолодженні, не згадуючи про лікування старіння, але він показує, що нам ще потрібно пройти довгий шлях, щоб переконати навіть колег-вчених у тому, що лікування старіння є бажаним.
16,06K
Запобігання смерті є вкрай неетичним

João Pedro de Magalhães6 серп., 06:41
«Це вкрай неетично – зупиняти старіння», – коментує рецензент одну з моїх заявок на грант.
Грант був зосереджений на клітинному омолодженні, не згадуючи про лікування старіння, але він показує, що нам ще потрібно пройти довгий шлях, щоб переконати навіть колег-вчених у тому, що лікування старіння є бажаним.
228
Тобто gpt-oss 120B не може видавати правильні німецькі, але при цьому прибиває складні баги Haskell, які навіть Opus не зміг ідентифікувати?
Як це відбувається?
Мене щиро так бентежить все це

Björn Plüster6 серп., 04:45
GPPT-OSS 120B дуже відверто не здатний відтворювати лінгвістично правильний німецький текст. 🧵
232
Моє початкове враження від моделі OSS від OpenAI збігається з тим, що вони рекламували. Він відчувається ближче до o3, ніж до інших відкритих моделей, за винятком того, що він набагато швидший і дешевший. Деякі провайдери пропонують його по 3000 токенів/с, що є божевіллям. Він однозначно розумніший за Kimi K2, R1 і Qwen 3. Я трохи протестував усі моделі, і отримав дуже рішучі результати на користь OpenAI-OSS-120b.
На жаль, є одна річ, яку ці моделі поки не вміють - моя чортова робота. Отже, сподіваюся, хлопці, вам буде весело. Я повернуся до налагодження обчислення 😭 λ-обчислення з накладенням, до зустрічі
410,36K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги