Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

rick awsb ($people, $people)
Lecture à l’aveugle, explications aléatoires, quoi acheter et quoi perdre, les élèves macro de l’école primaire, les commentateurs politiques et économiques, se perdent lentement dans l’IA, le détenteur de cryptomonnaies, l’agriculteur defi, pas le conseil financier et non le conseil en investissement
Avec le plan de sauvetage, aider à concentrer davantage la richesse, rendant ainsi plus difficile pour les gens ordinaires de se relever 🤣

indigoil y a 8 heures
Tout le monde se souvient de ça, c'est le plan de sauvetage des gens ordinaires - Investissez en eux 😂

28
Depuis septembre, le stockage par tête, après une forte hausse en janvier, confirme à nouveau que le stockage est toujours sous-estimé
Le premier à appeler à l'investissement dans le stockage, c'est lui sans conteste
Cible claire, logique évidente
"Pratiquement toutes les grandes lignes AGI "impliquent" une explosion du stockage"
L'amélioration des capacités de toutes les institutions/personnes nécessite une amélioration de la mémoire
C'est la logique la plus solide du stockage.



ariel reyez romero9 janv., 14:03
La publication sur Micron à la fin septembre a vu le prix de l'action mu doubler depuis.
Est-ce que cela reste sous-évalué ?
Il est très probable que ce soit encore sous-évalué, et même gravement sous-évalué.
La raison est que,
peu importe quelle voie AGI connue, le "stockage" deviendra une contrainte dure de croissance super-linéaire voire exponentielle par phases.
1) Presque toutes les voies AGI mainstream "impliquent" une explosion du stockage.
Les voies connues incluent :
Modèles du monde (World Models)
LLM + modèles de base multimodaux
Intelligence incarnée (Embodied AI)
Systèmes multi-modèles / multi-agents
Mémoire à long terme + planification + système de réflexion
Tous entraîneront une croissance super-linéaire des besoins en stockage, et pousseront simultanément à la hausse trois types de stockage :
Stockage de paramètres (poids du modèle, points de contrôle)
Stockage d'états intermédiaires / d'états du monde (états temporels, processus de déduction)
Stockage d'expériences / mémoires à long terme (bibliothèques de mémoire externes, trajectoires, connaissances et expériences)
2) Pourquoi les "modèles du monde" sont naturellement des tueurs de stockage.
(a) Les modèles du monde ne sont pas "entrée → sortie", mais "univers réutilisable".
Ce que les modèles du monde doivent faire : État du monde donné → déduire le futur → revenir en arrière → comparer → redéduire. Par conséquent, il faut sauvegarder :
État du monde (S_t)
Relations de transition d'état (P(S_{t+1}|S_t, A_t))
Hypothèses à multiples branches (contrefactuelles)
Séquences sur de longues périodes (long horizon)
Point clé : ce n'est pas une chaîne linéaire, mais une structure arborescente — la croissance du stockage deviendra temps linéaire × facteur de branchement → se manifestant en réalité comme super-linéaire.
(b) Une fois que le modèle commence à "se généraliser", les besoins en stockage subiront une transition.
La phase de faible fidélité peut encore être bien compressée ; mais lorsque le modèle se rapproche d'une "vraie compréhension du monde" :
Les règles peuvent être compressées
Mais les cas de longue traîne, les anomalies, les cas limites, et les causalités complexes ne peuvent pas être compressés.
Ainsi, il y aura une mauvaise interprétation de "plus on est intelligent, moins on a besoin de stockage" — la réalité est plutôt : plus on est intelligent → plus on doit conserver de nombreuses exceptions et expériences non compressibles à long terme.
3) LLM + multimodal : le stockage n'est pas réduit, mais "déplacé" et plus grand.
Beaucoup de gens pensent que LLM a juste beaucoup de paramètres et peu d'états, mais la tendance évolue vers :
(a) Passer de "paramètres = connaissance" à "paramètres + mémoire externe".
Contexte long, RAG, banque de mémoire, mémoire épisodique, etc., déplacent la connaissance des poids vers un stockage externe appelable. Cela est généralement un "déplacement", pas une "réduction du total".
(b) Le multimodal augmente considérablement la densité de données de "chaque expérience".
L'expérience n'est plus une phrase, mais peut être : vidéo + audio + actions + état de l'environnement. Plus il y a de modalités, plus la quantité d'informations utiles d'un échantillon est grande, et la pression de stockage est également plus grande.
4) Intelligence incarnée : la pression de stockage est encore plus exagérée.
L'intelligence incarnée dépend de :
Flux de capteurs à grande échelle (visuels / tactiles / IMU, etc.)
Trajectoires multimodales alignées dans le temps.
Enregistrements complets des épisodes de succès/échec.
Comparaison :
L'unité d'échantillon de base de LLM est le token.
Le modèle du monde est une trajectoire.
Le robot est une trajectoire × signal continu.
Et le fait clé est : les échecs rares et les expériences liées à la sécurité sont particulièrement précieuses, souvent impossibles à abandonner, augmentant encore la quantité de stockage "qui doit être conservée".
5) Systèmes multi-agents / collaboratifs : il est facile d'observer un "effet carré" ou même une illusion exponentielle.
S'il y a N agents, chacun ayant M expériences :
Stockage individuel : environ (N×M).
Mais une fois qu'il faut partager, aligner, modéliser mutuellement (prédire "ce que pense un autre agent"), le stockage s'étendra vers l'espace relationnel, pouvant approcher (O(N^2×M)).
Surtout dans les tâches de simulation sociale / de jeu / économiques, les modèles du monde + multi-agents augmenteront considérablement les besoins en stockage.
6) Existe-t-il des voies AGI pour "éviter l'explosion du stockage" ?
Nous en sommes arrivés à la conclusion qu'il n'existe actuellement aucune voie AGI sérieusement considérée qui puisse réellement contourner le problème de l'échelle de stockage. On ne peut que faire trois types de "retardement / transfert" :
Compression plus agressive (mais souvent au détriment de la généralisation)
Oublier plus fréquemment (sacrifiant la cohérence à long terme)
Externaliser le stockage à l'environnement / outils / réseau (essentiellement un transfert, pas une élimination).
7) Résumé : l'offre pourra-t-elle longtemps ne pas suivre la demande ?
Le jugement est le suivant :
"Niveau d'intelligence" dépend de plus en plus de la taille de la mémoire efficace appelable (pas seulement de la puissance de calcul).
L'expansion du stockage est contrainte par des facteurs réels tels que les matériaux, la fabrication, la fiabilité, la consommation d'énergie, le coût, etc.
Ainsi, dans un avenir prévisible, la demande d'IA pour un stockage efficace dépassera probablement de manière durable la capacité d'offre de stockage.
Les inférences correspondantes incluent :
La capacité à exécuter des modèles du monde complets / des systèmes de mémoire à grande échelle sera plus rare et plus concentrée.
Les contraintes industrielles pourraient passer de "puissance de calcul" à "systèmes de stockage" (hiérarchie, appelabilité, cohérence à long terme).
Ainsi,
Que ce soit pour les modèles du monde, l'intelligence incarnée ou le multimodal + Agent, la contrainte dure clé de l'AGI passe progressivement de "puissance de calcul" à "systèmes de stockage évolutifs, appelables et cohérents à long terme" ; cette demande de stockage présente structurellement une croissance super-linéaire et pourrait à certains moments se manifester comme une pression exponentielle approximative.
nfa dyor
30
En 2026, la loi de mise à l'échelle n'a pas seulement rencontré un mur, elle a encore accéléré. Auparavant, il s'agissait uniquement de la mise à l'échelle du pré-entraînement, maintenant cela inclut également l'inférence et les agents.
Tous ces éléments sont des goulets d'étranglement communs, tous pointent vers le stockage.
Ce n'est pas seulement une question de capacité, mais aussi de bande passante et de vitesse.
L'entreprise la plus proche ou capable de franchir les limites sera la prochaine à connaître une multiplication par dix, voire par cent.
C'est la raison pour laquelle, jusqu'à présent, le secteur du stockage sur le marché boursier américain a explosé.
Et cela pourrait encore être loin d'être terminé.

rick awsb ($people, $people)26 janv., 02:28
Si je devais décrire l'IA de ces 26 dernières années avec un seul mot, je dirais que c'est l'auto-itération régressive.
Pour les utilisateurs finaux, le fait que clawdbot s'améliore lui-même est la compréhension la plus évocatrice de ce terme.
87
Meilleurs
Classement
Favoris