Ahora mismo tenemos la mentalidad de que los modelos cambian tan rápido y son tan grandes que la única forma de confiar en ellos es haciendo un viaje de ida y vuelta al hiperescalador. Esta es la dinámica que ocurrió con los servidores web. HTML estaba cambiando tan rápido que las aplicaciones escritas con él mejoraban más rápido de lo que el "código cliente" podría distribuirse de forma tradicional. El problema era que el ancho de banda no aumentaba lo suficientemente rápido. Así que la restricción obligaba a que se realizara más cómputo en los servidores. Esto, a su vez, ralentizó el avance de la "interfaz web" para los usuarios finales. Como la interfaz de chat actual, es la forma más eficaz de enviar información de ida y vuelta al modelo que se ejecuta en un hiperescalador. Dado que el lenguaje natural es notoriamente impreciso y el ir y venir es una forma frustrante de trabajar, parece natural que interfaces más estructuradas lleguen a usar modelos. Y con eso, el "tiempo de ejecución" para usar modelos migrará gradualmente para estar en el dispositivo y así ser más rápido y eficiente. Por eso, hoy en día, cuando usas una "aplicación web" aunque haga muchos viajes de ida y vuelta, también utiliza un tiempo de ejecución "edge" muy grande contenido en el navegador + la caché del navegador con código ejecutable.