Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En este momento, estamos en la mentalidad de que los modelos están cambiando tan rápido y son tan grandes que la única forma de confiar en ellos es a través de un ciclo de ida y vuelta con el hyperscaler.
Esta es la dinámica que ocurrió con los servidores web. HTML estaba cambiando tan rápido que las aplicaciones escritas con él estaban mejorando más rápido de lo que el "código del cliente" podría distribuirse de manera tradicional. El problema era que el ancho de banda no estaba aumentando lo suficientemente rápido. Así que la restricción forzó a que más computación ocurriera en los servidores. Esto, a su vez, ralentizó el avance de la "interfaz web" para los usuarios finales. Como la interfaz de chat de hoy es la forma más efectiva de transportar información de ida y vuelta al modelo que se ejecuta en un hyperscaler.
Dado que el lenguaje natural es notoriamente impreciso y el ir y venir es una forma frustrante de trabajar, parece natural que interfaces más estructuradas vayan a utilizar modelos. Y con eso, el "tiempo de ejecución" para usar modelos migrará gradualmente a estar en el dispositivo para ser más rápido y eficiente.
Por eso hoy, cuando usas una "aplicación web", aunque realice muchos ciclos de ida y vuelta, también hace uso de un "tiempo de ejecución" de "edge" muy grande contenido en el navegador + la caché del navegador de código ejecutable.
Parte superior
Clasificación
Favoritos
