Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Випадки, коли маленький мозок став розумнішим: результати експерименту @SentientAGI
Міф про те, що «чим більша модель, тим розумніша», розбиває компанія Sentient.
У бенчмарку LiveCodeBenchPro модель Dobby-CP, яка має параметри 7~14B і 20% тренувальних даних (ви можете думати про це лише як про навчання невеликої кількості),
Він показав такий самий показник проходження для запитань середньої складності, як і надвеликі моделі рівня GPT.
Це довело, що бали, отримані на традиційних легких іспитах, не гарантують реальних навичок вирішення проблем.
Основною технологією, яка значною мірою сприяла цій продуктивності, є фреймворк ROM.
Структура ROMA розбиває складні виклики на етапи та обробляє їх паралельно.
Він знизив витрати на висновок на 50~80% і досяг вищої точності, ніж GPT.
Ці результати є числовим доказом того, що якість даних і здатність моделі розуміти і вчитися залежить від інтелекту, а не від розміру простої моделі.
---
Розумні дослідники впровадили OML 1.0, який розміщує 25 000 відбитків пальців усередині моделі, не жертвуючи продуктивністю.
Кажуть, що реакція спільноти також полягає в тому, що чим більший ШІ, тим дурнішим він стає.
Це можна порівняти з ефективністю людського мозку, який виконує міркування на високому рівні з потужністю 20 Вт.
Підсумовуючи, можна сказати, що Sentient демонструє монструозний штучний інтелект, який здається високоінтелектуальним із вищою ефективністю, незважаючи на свою меншу модель.

Найкращі
Рейтинг
Вибране

