Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dette blåste meg av banen 🤯
Jeg gikk nettopp gjennom en MIT-artikkel om ARC, og det endret fullstendig hvordan jeg ser på benchmarken.
Forskerne behandlet ikke ARC som et logisk puslespill i det hele tatt. De behandlet hver oppgave som en visuell transformasjon.
Grid inn → grid out. Ingenting er mer komplisert enn det.
De bygde en liten Vision Transformer, trente den fra bunnen av på ARCs lille datasett, og brukte et enkelt lerretstriks for å plassere hvert eksempel som et bilde.
Deretter la de til skalaendringer, translasjoner og grunnleggende visuelle forutsetninger som man ser i klassisk datamaskinsynsarbeid.
Det er det.
Ingen tankerekke, ingen påminnelser, ingen smarte symbolske triks.
Bare en modell som ser på piksler og lærer hvordan former beveger seg, snur, vokser, kollapser eller overføres over.
Den ville delen?
Denne lille modellen når 54,5 % alene og 60,4 % når den kombineres med en U-Net.
Det er omtrent gjennomsnittlig menneskelig ytelse med en modell som passer inn i størrelsen til en liten mobilapp.
Å se ARC løst på denne måten gjør at hele benchmarken føles annerledes.
Oppgavene ser plutselig ut som bildekartlegginger i stedet for skjulte regler. Refleksjonsoppgaver ser faktisk ut som refleksjoner.
Symmetrioppgaver ser ut som symmetri. Gravitasjonsoppgaver ser ut som biter som «faller» rett ned lerretet.
...

Topp
Rangering
Favoritter

