Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Questo mi ha lasciato senza parole 🤯
Ho appena letto un documento del MIT su ARC e ha completamente cambiato il mio modo di vedere il benchmark.
I ricercatori non hanno trattato ARC come un rompicapo logico. Hanno considerato ogni compito come una trasformazione visiva.
Griglia in → griglia out. Niente di più complicato di così.
Hanno costruito un piccolo Vision Transformer, addestrato da zero sul piccolo dataset di ARC, e hanno usato un semplice trucco di canvas per posizionare ogni esempio come un'immagine.
Poi hanno aggiunto cambiamenti di scala, traduzioni e basi visive che vedresti nel lavoro classico di computer vision.
Ecco tutto.
Nessuna catena di pensiero, nessun prompt, nessun trucco simbolico ingegnoso.
Solo un modello che guarda i pixel e impara come le forme si muovono, si girano, crescono, collassano o si trasferiscono.
La parte sorprendente?
Questo piccolo modello raggiunge il 54,5% da solo e il 60,4% quando combinato con un U-Net.
È proprio intorno alla prestazione media umana con un modello che si adatta alle dimensioni di una piccola app mobile.
Vedere ARC risolto in questo modo fa sentire tutto il benchmark diverso.
I compiti sembrano improvvisamente mappature di immagini invece di regole nascoste. I compiti di riflessione sembrano effettivamente riflessioni.
I compiti di simmetria sembrano simmetria. I compiti di gravità sembrano pezzi che "cadono" dritti giù per il canvas.
...

Principali
Ranking
Preferiti

