Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Frank Downing
Sim.
Já ouvi dizer que "os navegadores são a distribuição definitiva para os agentes". Eu acho que isso é ao contrário.
Os agentes usarão os navegadores como ferramenta, entre outros, para realizar tarefas.
Você pensará no agente como o produto, não o navegador.
Você paga pelo ChatGPT Agent, que ativa os navegadores para realizar tarefas conforme necessário. Você pode assistir e entrar, mas não precisa.
Mesma direção para o cometa da Perplexidade. Ele atende os usuários onde eles estão hoje, mas com o tempo o agente dirigirá cada vez mais e você se importará cada vez menos em ver como a salsicha é feita.

qw22 de jul., 03:12
Os sites substituem a maioria dos aplicativos de desktop (últimas 2 décadas)
Em seguida, os agentes substituem a maioria dos sites (próximas 2 décadas)
32,71K
Bons dados apontam sobre a importância da "engenharia de contexto":
Os tokens de entrada podem ser mais baratos do que os tokens de saída, mas tarefas pesadas de contexto (como codificação) podem exigir de 300 a 400 vezes mais tokens de entrada de contexto do que tokens de saída, tornando o contexto 98% do total de LLM
A latência também cresce com um tamanho de contexto maior.
Ressalta a importância de fornecer o contexto certo no momento certo ao criar aplicativos de IA e, presumo, deixa muito espaço para diferenciação competitiva em aplicativos SaaS de navegação de IA.

Tomasz Tunguz9 de jul., 01:36
Quando você consulta a IA, ela reúne informações relevantes para responder.
Mas, quanta informação o modelo precisa?
Conversas com os praticantes revelaram a intuição deles: a entrada foi ~ 20x maior que a saída.
Mas meus experimentos com a interface de linha de comando da ferramenta Gemini, que gera estatísticas detalhadas de tokens, revelaram que é muito maior.
300x em média e até 4000x.
Veja por que essa alta relação de entrada e saída é importante para quem constrói com IA:
O gerenciamento de custos tem tudo a ver com a entrada. Com chamadas de API precificadas por token, uma proporção de 300:1 significa que os custos são ditados pelo contexto, não pela resposta. Essa dinâmica de preços é verdadeira em todos os principais modelos.
Na página de preços da OpenAI, os tokens de saída para GPT-4.1 são 4x mais caros que os tokens de entrada. Mas quando a entrada é 300 vezes mais volumosa, os custos de entrada ainda são 98% da conta total.
A latência é uma função do tamanho do contexto. Um fator importante que determina quanto tempo um usuário espera por uma resposta é o tempo que o modelo leva para processar a entrada.
Ele redefine o desafio da engenharia. Essa observação prova que o principal desafio de construir com LLMs não é apenas solicitar. É engenharia de contexto.
A tarefa crítica é construir recuperação de dados e contexto eficientes - criando pipelines que possam encontrar as melhores informações e destilá-las na menor pegada de token possível.
O cache torna-se de missão crítica. Se 99% dos tokens estiverem na entrada, a criação de uma camada de cache robusta para documentos recuperados com frequência ou contextos de consulta comuns passa de um "bom ter" para um requisito de arquitetura central para a construção de um produto econômico e escalável.
Para os desenvolvedores, isso significa que focar na otimização de entrada é uma alavanca crítica para controlar custos, reduzir a latência e, por fim, criar um produto bem-sucedido com inteligência artificial.




1,47K
Dois volantes de reforço estão acelerando a adoção do AI IDE (ambiente de desenvolvimento integrado):
1. Volante do Modelo-produto:
À medida que os modelos de base melhoram (raciocínio, planejamento, uso de ferramentas), os IDEs de IA construídos sobre eles melhoram instantaneamente, gerando mais uso do produto. À medida que os IDEs de IA se tornam grandes consumidores de tokens, os provedores de modelos básicos são incentivados a otimizar esses fluxos de trabalho, aumentando ainda mais o desempenho.
2. Volante de dados do usuário:
À medida que os IDEs de IA atraem mais desenvolvedores, eles geram dados de uso proprietários (o que os desenvolvedores perguntam, como codificam, onde ficam presos). Esses dados podem ser usados para treinar modelos especializados ajustados para o próprio IDE, levando a uma melhor experiência do usuário e desempenho e a um fosso mais profundo.
# 1 beneficia a categoria. # 2 beneficia o líder da categoria.
26,16K
É engraçado para mim que Claude faz um trabalho melhor de responder a perguntas sobre o meu Gmail que o Gemini do Google faz.
As versões mais recentes do Gemini o esmagam nos benchmarks e ouvi annectodaly que eles são ótimos em codificação, mas o uso do aplicativo Gemini no mundo real nunca correspondeu a mim em relação ao ChatGPT, Claude ou Grok
224,54K
Publicamos um whitepaper com a Coinbase em janeiro de 2017, 8 meses antes de eles levantarem sua rodada da série D em uma avaliação de US$ 1,6 bilhão. Admiramos a abordagem da empresa para integrar novos usuários à economia cripto - > inclinando-se para a inovação com alta velocidade do produto enquanto joga de acordo com as regras. Hoje, a empresa vale ~ $ 65 bilhões, representando um retorno anualizado de aproximadamente 60% para os investidores da Série D nos últimos ~ 8 anos.
Tesla, Palantir e agora Coinbase: Todas as empresas que o mercado fundamentalmente não entendeu e puniu como se estivessem indo à falência, agora reconhecidas como líderes de categoria em seus respectivos espaços e parte do S&P 500. Embora ainda pensemos que alguns dos melhores anos para cada uma dessas empresas estão à sua frente, acessar a inovação cedo, antes que uma empresa chegue aos grandes índices, é fundamental para construir um portfólio completo.

ARK Invest14 de mai. de 2025
A Coinbase está se juntando ao S&P 500. Para a maioria, é um marco criptográfico. Para nós, é um sinal. 🧵
264,61K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável