Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En ce moment, nous avons l'état d'esprit que les modèles changent si rapidement et sont si vastes que la seule façon de s'y fier est de passer par un aller-retour vers le hyperscaler.
C'est la dynamique qui s'est produite avec les serveurs web. Le HTML changeait si vite que les applications écrites avec lui s'amélioraient plus rapidement que le "code client" ne pouvait jamais être distribué de manière traditionnelle. Le problème était que la bande passante n'augmentait pas assez vite. Ainsi, la contrainte a forcé davantage de calcul à se faire sur les serveurs. Cela a à son tour ralenti l'avancée de l'"interface web" pour les utilisateurs finaux. Comme l'interface de chat d'aujourd'hui est le moyen le plus efficace de faire circuler l'information d'un bout à l'autre vers le modèle fonctionnant sur un hyperscaler.
Puisque le langage naturel est notoirement imprécis et que les allers-retours sont une façon frustrante de travailler, il semble naturel que des interfaces plus structurées fassent leur chemin vers l'utilisation des modèles. Et avec cela, le "runtime" pour utiliser les modèles migrera progressivement vers l'appareil afin d'être plus rapide et plus efficace.
C'est pourquoi aujourd'hui, lorsque vous utilisez une "application web", même si elle effectue beaucoup d'allers-retours, elle utilise également un très grand "runtime" en périphérie contenu dans le navigateur + le cache du navigateur de code exécutable.
Meilleurs
Classement
Favoris
