Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Casos en los que los cerebros pequeños se volvieron más inteligentes: resultados del experimento de @SentientAGI
El mito de que "cuanto más grande es el modelo, más inteligente" está siendo roto por Sentient.
En el punto de referencia LiveCodeBenchPro, el modelo Dobby-CP, que tiene parámetros de 7 ~ 14B y 20% de los datos de entrenamiento (solo puede pensar en ello como aprender una pequeña cantidad),
Mostró la misma tasa de aprobación para preguntas de dificultad media que los modelos súper grandes de nivel GPT.
Esto demostró que los puntajes obtenidos en los exámenes fáciles tradicionales no garantizan habilidades reales para resolver problemas.
La tecnología central que ha contribuido en gran medida a este rendimiento es el marco ROMA.
El marco ROMA divide los desafíos complejos en fases y los procesa en paralelo.
Redujo los costos de inferencia en un 50 ~ 80% y logró una mayor precisión que GPT.
Estos resultados son evidencia numérica de que la calidad de los datos y la capacidad del modelo para comprender y aprender depende de la inteligencia, en lugar del tamaño de un modelo simple.
---
Los investigadores de Sentient implementaron OML 1.0, que coloca 25,000 huellas dactilares dentro del modelo, sin sacrificar el rendimiento.
Se dice que la reacción de la comunidad también es que cuanto más grande es la IA, más estúpida se vuelve.
Es comparable a la eficiencia del cerebro humano, que realiza un razonamiento de alto nivel con 20 vatios de potencia.
En conclusión, se puede decir que Sentient está demostrando una IA monstruosa que parece ser muy inteligente con mayor eficiencia a pesar de su modelo más pequeño.

Populares
Ranking
Favoritas

