C'est toujours comme ça que j'ai supposé que les LLMs finiraient par fonctionner, parce que c'est comme ça que je (et probablement la plupart des autres) pense Je suppose que l'unité de base de la pensée est cette chose de vecteur de pensée gestalt, pas des "mots", et nous avons tous développé une manière très rapide de traduire cela en mots parce que les mots sont plus communicables que des morceaux de pensée C'était toujours mon problème avec le discours "certaines personnes n'ont pas de monologue interne !" Cela n'a tout simplement pas de sens que les mots soient l'unité de base dans laquelle les gens pensent. C'est comme 1000 fois plus rapide de penser en termes d'images ou de ces morceaux de pensée ou quoi que ce soit Je suppose que cela semble juste que les gens pensent en mots parce que lorsqu'ils décrivent ce qu'ils pensent aux autres, ils doivent traduire les morceaux de pensée en mots - car c'est ainsi que nous communiquons - et ce processus convertit leurs pensées réelles en la forme d'un monologue Mais il n'est logique de penser en mots que lorsque vous devez produire une forme de communication. Sinon, ce n'est pas très efficace Et les cerveaux humains sont incroyablement efficaces
Simplifying AI
Simplifying AI23 mars, 00:54
🚨 DERNIÈRE MINUTE : Tencent a tué le paradigme du "next-token". Tencent et Tsinghua ont publié CALM (Modèles de Langage Autoregressifs Continus), et cela perturbe complètement le paradigme du next-token. Les LLMs gaspillent actuellement d'énormes quantités de calcul à prédire des tokens discrets et uniques à travers une énorme couche softmax de vocabulaire. C'est lent et ça ne s'échelonne pas bien. CALM contourne entièrement le vocabulaire. Il utilise un autoencodeur de haute fidélité pour compresser des morceaux de texte en un seul vecteur continu avec une précision de reconstruction de 99,9%. Le modèle prédit maintenant le "prochain vecteur" dans un espace continu. Les chiffres sont en fait fous : - Chaque étape générative porte maintenant 4× la bande passante sémantique. - Le calcul d'entraînement est réduit de 44%. - Le goulot d'étranglement softmax est complètement supprimé. Nous assistons littéralement à l'évolution des modèles de langage, passant de la saisie de symboles discrets à la diffusion de pensées continues. Cela change toute la trajectoire de l'IA.
Je commente juste le mécanisme décrit ici au fait, pas la technologie réelle de Tencent ou quoi que ce soit. Je suppose que passer des vecteurs aux jetons va être assez lent/inefficace pendant longtemps et je doute que cela RÉVOLUTIONNE l'IA ou quoi que ce soit à court terme.
288