Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Esto me dejó alucinado 🤯
Acabo de revisar un artículo del MIT sobre ARC y cambió completamente mi forma de ver el benchmark.
Los investigadores no trataron ARC como un rompecabezas lógico en absoluto. Trataban cada tarea como una transformación visual.
Cuadrícula dentro → cuadrícula hacia afuera. Nada más complicado que eso.
Construyeron un pequeño Transformador de Visión, lo entrenaron desde cero con el pequeño conjunto de datos de ARC y usaron un sencillo truco de lienzo para colocar cada ejemplo como una imagen.
Luego añadieron cambios de escala, traducciones y priors visuales básicos que verías en trabajos clásicos de visión por ordenador.
Eso es todo.
Sin cadena de pensamiento, sin indicaciones, sin trucos simbólicos ingeniosos.
Solo un modelo que observa píxeles y aprende cómo se mueven, se voltean, crecen, colapsan o se trasladan las formas.
¿La parte salvaje?
Este modelo diminuto alcanza el 54,5% por sí solo y el 60,4% cuando se combina con un U-Net.
Eso es justo el rendimiento humano medio con un modelo que encaja en el tamaño de una pequeña aplicación móvil.
Ver ARC resuelto de esta manera hace que todo el benchmark se sienta diferente.
Las tareas de repente parecen mapeados de imágenes en lugar de reglas ocultas. Las tareas de reflexión en realidad parecen reflejos.
Las tareas de simetría parecen simetría. Las tareas de gravedad parecen piezas que "caen" directamente por el lienzo.
...

Populares
Ranking
Favoritas

