Tokenisering har vært den siste barrieren for virkelig ende-til-ende-språkmodeller. Vi utviklet H-Net: et hierarkisk nettverk som erstatter tokenisering med en dynamisk chunking-prosess direkte inne i modellen, som automatisk oppdager og opererer over meningsfulle dataenheter
Vi er utrolig spente på å se hvordan H-Nets vil tillate modeller å lære mer effektivt, med mindre forhåndser og forbehandling, på tvers av alle slags modaliteter! Dette arbeidet var et samarbeid med @cartesia_ai 10/10
653,28K