Випадки, коли маленький мозок став розумнішим: результати експерименту @SentientAGI Міф про те, що «чим більша модель, тим розумніша», розбиває компанія Sentient. У бенчмарку LiveCodeBenchPro модель Dobby-CP, яка має параметри 7~14B і 20% тренувальних даних (ви можете думати про це лише як про навчання невеликої кількості), Він показав такий самий показник проходження для запитань середньої складності, як і надвеликі моделі рівня GPT. Це довело, що бали, отримані на традиційних легких іспитах, не гарантують реальних навичок вирішення проблем. Основною технологією, яка значною мірою сприяла цій продуктивності, є фреймворк ROM. Структура ROMA розбиває складні виклики на етапи та обробляє їх паралельно. Він знизив витрати на висновок на 50~80% і досяг вищої точності, ніж GPT. Ці результати є числовим доказом того, що якість даних і здатність моделі розуміти і вчитися залежить від інтелекту, а не від розміру простої моделі. --- Розумні дослідники впровадили OML 1.0, який розміщує 25 000 відбитків пальців усередині моделі, не жертвуючи продуктивністю. Кажуть, що реакція спільноти також полягає в тому, що чим більший ШІ, тим дурнішим він стає. Це можна порівняти з ефективністю людського мозку, який виконує міркування на високому рівні з потужністю 20 Вт. Підсумовуючи, можна сказати, що Sentient демонструє монструозний штучний інтелект, який здається високоінтелектуальним із вищою ефективністю, незважаючи на свою меншу модель.