Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
No momento, estamos na mentalidade de que os modelos estão mudando tão rápido e são tão grandes que a única forma de confiar neles é fazendo ida e volta para o hyperscaler.
Essa é a dinâmica que aconteceu com os servidores web. O HTML estava mudando tão rápido que os aplicativos escritos com ele melhoravam mais rápido do que o "código cliente" poderia ser distribuído de forma tradicional. O problema era que a largura de banda não aumentava rápido o suficiente. Então a restrição obrigou a mais computação nos servidores. Isso, por sua vez, desacelerou o avanço da "interface web" para os usuários finais. Como a interface de chat de hoje, é a forma mais eficaz de transferir informações de um lado para o outro para o modelo rodando em um hiperescalonador.
Como a linguagem natural é notoriamente imprecisa e o vai e vem é uma forma frustrante de trabalhar, parece natural que interfaces mais estruturadas acabem usando modelos. E, com isso, o "tempo de execução" para usar modelos migrará gradualmente para estar no dispositivo, a fim de ser mais rápido e eficiente.
Por isso, hoje, quando você usa um "aplicativo web", mesmo que ele faça muitas viagens de ida e volta, ele também utiliza um tempo de execução "edge" muito grande contido no navegador + o cache do navegador com código executável.
Melhores
Classificação
Favoritos
