Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Isto foi tão divertido, Mario. Obrigado por me receber no programa para falar sobre tudo o que está a acontecer no mercado!

Mario Gabriele 🦊22/07, 20:22
O nosso último episódio com Tomasz Tunguz está no ar!
A Década dos Dados
@ttunguz passou quase duas décadas a transformar dados em insights de investimento. Depois de apoiar Looker, Expensify e Monte Carlo na Redpoint Ventures, lançou a @Theoryvc em 2022 com uma visão ousada: construir uma "corporação de investimento" onde investigadores, engenheiros e operadores trabalham lado a lado com investidores, criando mapas de mercado em tempo real e ferramentas de IA internas. O seu fundo de estreia fechou em 238 milhões de dólares, seguido apenas 19 meses depois por um segundo fundo de 450 milhões de dólares. Centrada em dados, IA e infraestrutura cripto, a Theory opera no coração das mudanças tecnológicas mais consequentes de hoje. Exploramos como os dados estão a remodelar o capital de risco, por que os modelos de investimento tradicionais estão a ser perturbados e o que é necessário para construir uma empresa que não apenas prevê o futuro, mas que ajuda ativamente a criá-lo.
Ouça agora:
• YouTube:
• Spotify:
• Apple:
Um grande agradecimento aos incríveis patrocinadores que tornam o podcast possível:
✨ Brex — A solução bancária para startups:
✨ Generalist+ — Inteligência essencial para investidores e tecnólogos modernos:
Exploramos:
→ Como funciona o modelo de "corporação de investimento" da Theory
→ Por que as exchanges de cripto podem criar um caminho viável para os mercados públicos para empresas de software de pequena capitalização
→ A iminente crise de energia — por que os centros de dados podem consumir 15% da eletricidade dos EUA dentro de cinco anos
→ A rápida ascensão das stablecoins à medida que grandes bancos canalizam 5‑10% dos dólares dos EUA através delas
→ Por que o Ethereum enfrenta um desafio existencial semelhante ao da AWS perdendo terreno para a Azure na era da IA
→ Por que Tomasz acredita que o punhado de agentes de hoje se tornará 100+ co-trabalhadores digitais até o final do ano
→ Por que a Meta está a apostar bilhões em óculos de AR para mudar a forma como interagimos com as máquinas
→ Como a Theory Ventures usa IA para acelerar a pesquisa de mercado, análise de negócios e decisões de investimento
…E muito mais!
7,64K
A OpenAI recebe em média 1 consulta por americano por dia.
O Google recebe cerca de 4 consultas por americano por dia.
Desde então, 50% das consultas de pesquisa do Google têm Visões Gerais de IA, o que significa que pelo menos 60% das pesquisas nos EUA agora são de IA.
Demorou um pouco mais do que eu esperava para que isso acontecesse. Em 2024, eu previ que 50% das pesquisas de consumidores seriam habilitadas por IA. (
Mas a IA chegou à pesquisa.
Se os padrões de pesquisa do Google são um indicativo, há uma lei de potência no comportamento de pesquisa. A análise da SparkToro sobre o comportamento de pesquisa do Google mostra que o terço superior dos americanos que pesquisam executa mais de 80% de todas as pesquisas - o que significa que o uso de IA provavelmente não está distribuído de forma uniforme - como o futuro.
Os sites e negócios estão começando a sentir os impactos disso. O artigo da Economist "A IA está matando a web. Pode algo salvá-la?" captura o zeitgeist em um título. (
Uma supermaioria dos americanos agora pesquisa com IA. Os efeitos de segunda ordem das mudanças nos padrões de pesquisa estão chegando na segunda metade deste ano e mais pessoas estarão perguntando: "O que aconteceu com meu tráfego?" (
A IA é um novo canal de distribuição e aqueles que a aproveitarem ganharão participação de mercado.
- William Gibson viu muito mais longe no futuro!
- Isso é baseado em uma análise de ponto médio do gráfico da SparkToro, é uma análise muito simples e tem algum erro como resultado.

8,54K
Ao trabalhar com IA, estou a parar antes de digitar qualquer coisa na caixa para me fazer uma pergunta: o que espero da IA?
2x2 para o resgate! Em que caixa estou?
Num eixo, quanta informação eu forneço: não muito ou bastante. No outro, se devo observar a IA ou deixá-la correr.
Se eu fornecer muito pouca informação e deixar o sistema correr: ‘pesquisar tendências de Engenheiros Desdobrados (Forward Deployed Engineer)’, obtenho resultados descartáveis: visões gerais amplas sem detalhes relevantes.
Executar o mesmo projeto com uma série de perguntas curtas produz uma conversa iterativa que tem sucesso - uma Exploração.
“Quais empresas implementaram Engenheiros Desdobrados (FDEs)? Quais são os antecedentes típicos dos FDEs? Que tipos de estruturas contratuais e negócios se prestam a este trabalho?”
Quando tenho uma tolerância muito baixa para erros, forneço um contexto extenso e trabalho iterativamente com a IA. Para posts de blog ou análises financeiras, partilho tudo (rascunhos atuais, escritos anteriores, requisitos detalhados) e depois prossigo frase por frase.
Deixar um agente correr livremente requer definir tudo de antemão. Raramente tenho sucesso aqui porque o trabalho inicial exige uma clareza tremenda - objetivos exatos, informações abrangentes e listas de tarefas detalhadas com critérios de validação - um esboço.
Esses prompts acabam por parecer os documentos de requisitos de produto que escrevi como gestor de produto.
A resposta à pergunta ‘o que espero?’ ficará mais fácil à medida que os sistemas de IA acedam a mais das minhas informações e melhorem na seleção de dados relevantes. À medida que me torno melhor em articular o que realmente quero, a colaboração melhora.
Pretendo mover muitas mais das minhas perguntas da caixa superior esquerda - como fui treinado com a pesquisa do Google - para os outros três quadrantes.
Também espero que este hábito me ajude a trabalhar melhor com as pessoas.

2,89K
Aquela pequena caixa preta no meio é código de machine learning.
Lembro-me de ter lido o artigo de 2015 da Google sobre a Dívida Técnica Oculta em ML e de pensar em quão pouco de uma aplicação de machine learning era realmente machine learning.
A vasta maioria era infraestrutura, gestão de dados e complexidade operacional.
Com o surgimento da IA, parecia que os grandes modelos de linguagem iriam absorver essas caixas. A promessa era simplicidade: basta inserir um LLM e vê-lo lidar com tudo, desde atendimento ao cliente até geração de código. Sem mais pipelines complexos ou integrações frágeis.
Mas ao construir aplicações internas, observamos uma dinâmica semelhante com a IA.
Os agentes precisam de muito contexto, como um humano: como está estruturado o CRM, o que devemos inserir em cada campo - mas a entrada é cara para o modelo Faminto, Faminto de IA.
Reduzir custos significa escrever software determinístico para substituir o raciocínio da IA.
Por exemplo, automatizar a gestão de e-mails significa escrever ferramentas para criar tarefas no Asana e atualizar o CRM.
À medida que o número de ferramentas aumenta para além de dez ou quinze, a chamada de ferramentas deixa de funcionar. É hora de criar um modelo clássico de machine learning para selecionar ferramentas.
Depois, há a necessidade de observar o sistema, avaliando se ele é eficiente e direcionando para o modelo certo. Além disso, existe toda uma categoria de software para garantir que a IA faça o que se espera dela.
As barreiras evitam respostas inadequadas. A limitação de taxa impede que os custos saiam do controle quando um sistema enlouquece.
A recuperação de informações (RAG - geração aumentada por recuperação) é essencial para qualquer sistema de produção. No meu aplicativo de e-mail, uso um banco de dados vetorial LanceDB para encontrar todos os e-mails de um remetente específico e combinar seu tom.
Existem outras técnicas para gestão do conhecimento em torno do RAG gráfico e bancos de dados vetoriais especializados.
Mais recentemente, a memória tornou-se muito mais importante. As interfaces de linha de comando para ferramentas de IA salvam o histórico de conversas como arquivos markdown.
Quando publico gráficos, quero a legenda da Theory Ventures no canto inferior direito, uma fonte específica, cores e estilos. Agora, tudo isso é salvo dentro de arquivos .gemini ou .claude em uma série de diretórios em cascata.
A simplicidade original dos grandes modelos de linguagem foi absorvida pela complexidade de produção de nível empresarial.
Isso não é idêntico à geração anterior de sistemas de machine learning, mas segue um paralelo claro. O que parecia ser uma simples "caixa mágica de IA" acaba por ser um iceberg, com a maior parte do trabalho de engenharia escondido sob a superfície.


3,64K
Se 2025 é o ano dos agentes, então 2026 certamente pertencerá aos gestores de agentes.
Os gestores de agentes são pessoas que podem gerir equipas de agentes de IA. Quantos pode uma pessoa gerir com sucesso?
Eu mal consigo gerir 4 agentes de IA ao mesmo tempo. Eles pedem esclarecimentos, solicitam permissões, fazem pesquisas na web — tudo isso requer a minha atenção. Às vezes, uma tarefa leva 30 segundos. Outras vezes, 30 minutos. Perco a noção de qual agente está a fazer o quê e metade do trabalho é descartada porque eles interpretam mal as instruções.
Isto não é um problema de habilidade. É um problema de ferramentas.
Robôs físicos oferecem pistas sobre a produtividade dos gestores de robôs. O MIT publicou uma análise em 2020 que sugeria que o robô médio substituía 3,3 empregos humanos. Em 2024, a Amazon relatou que robôs de pickpack e envio substituíram 24 trabalhadores.
Mas há uma diferença crítica: a IA é não determinística. Os agentes de IA interpretam instruções. Eles improvisam. Ocasionalmente, ignoram direções completamente. Um Roomba só pode sonhar com a liberdade criativa de ignorar a sua sala de estar e decidir que a garagem precisa de atenção em vez disso.
A teoria da gestão muitas vezes orienta as equipas para um alcance de controlo de 7 pessoas.
Falando com alguns melhores gestores de agentes, aprendi que eles usam uma caixa de entrada de agentes, uma ferramenta de gestão de projetos para solicitar trabalho de IA e avaliá-lo. Na engenharia de software, os pull requests do Github ou os tickets do Linear servem a este propósito.
Engenheiros de software de IA muito produtivos gerem 10-15 agentes especificando 10-15 tarefas em detalhe, enviando-as para uma IA, aguardando a conclusão e depois revisando o trabalho. Metade do trabalho é descartada e reiniciada com um prompt melhorado.
A caixa de entrada de agentes não é popular - ainda. Não está amplamente disponível.
Mas suspeito que se tornará uma parte essencial do conjunto de produtividade para futuros gestores de agentes, porque é a única maneira de acompanhar o trabalho que pode chegar a qualquer momento.
Se o ARR por empregado é a nova métrica de vaidade para startups, então agentes geridos por pessoa podem se tornar a métrica de produtividade de vaidade de um trabalhador.
Em 12 meses, quantos agentes você acha que poderia gerir? 10? 50? 100? Poderia gerir um agente que gere outros agentes?

7,84K
Durante a última década, a maior linha no orçamento de P&D de qualquer startup era o talento previsível. Mas a IA está se impondo no P&L.
Quanto uma startup deve gastar em IA como porcentagem de seus gastos em pesquisa e desenvolvimento?
10%? 30%? 60?
Há três fatores a considerar. Primeiro, o salário médio de um engenheiro de software no Vale do Silício. Segundo, o custo total da IA utilizada por esse engenheiro. O Cursor está agora a $200 por mês para o seu Ultra Plan e as avaliações de Devin sugerem $500 por mês. Terceiro, o número de agentes que um engenheiro pode gerenciar.
Uma primeira análise: (primeira imagem)
Mas os custos de assinatura provavelmente são baixos. Nos últimos dias, estive brincando extensivamente com agentes de codificação de IA e acumulei uma conta de $1,000 em apenas cinco dias! 😳😅
Então, vamos atualizar a tabela e assumir mais $1000 por mês por engenheiro.
Assim, para uma startup típica, uma estimativa de 10 a 15% do total das despesas de P&D hoje pode ser razoavelmente utilizada para IA.
As variantes serão muito mais amplas na prática, à medida que todos aprendemos a usar a IA melhor e ela penetra mais na organização. Empresas menores que são nativas de IA desde o início provavelmente terão proporções significativamente mais altas.
Se você estiver interessado em participar de uma pesquisa anônima, publicarei os resultados se o tamanho da amostra for suficientemente grande para ter um resultado estatisticamente significativo.
A pesquisa está aqui:
Este é um modelo grosseiramente simplificado onde estamos apenas revisando salários, sem incluir benefícios, hardware, infraestrutura de desenvolvimento e teste, etc.
Esta é uma estimativa baseada em uma experiência pessoal descontada de codificação.


1,94K
Durante a última década, a maior linha no orçamento de P&D de qualquer startup era o talento previsível. Mas a IA está se impondo no P&L.
Quanto uma startup deve gastar em IA como porcentagem de seus gastos em pesquisa e desenvolvimento?
10%? 30%? 60?
Há três fatores a considerar. Primeiro, o salário médio de um engenheiro de software no Vale do Silício. Segundo, o custo total da IA utilizada por esse engenheiro. O Cursor está agora a $200 por mês para o seu Ultra Plan e as avaliações de Devin sugerem $500 por mês. Terceiro, o número de agentes que um engenheiro pode gerenciar.
Uma primeira análise: (primeira imagem)
Mas os custos de assinatura provavelmente são baixos. Nos últimos dias, estive brincando extensivamente com agentes de codificação de IA e acumulei uma conta de $1,000 em apenas cinco dias! 😳😅
Então, vamos atualizar a tabela e assumir mais $1000 por mês por engenheiro.
Assim, para uma startup típica, uma estimativa de 10 a 15% do total das despesas de P&D hoje pode ser razoavelmente utilizada para IA.
As variantes serão muito mais amplas na prática, à medida que todos aprendemos a usar a IA melhor e ela penetra mais na organização. Empresas menores que são nativas de IA desde o início provavelmente terão proporções significativamente mais altas.
Se você estiver interessado em participar de uma pesquisa anônima, publicarei os resultados se o tamanho da amostra for suficientemente grande para ter um resultado estatisticamente significativo.
A pesquisa está aqui:
Este é um modelo grosseiramente simplificado onde estamos apenas revisando salários, sem incluir benefícios, hardware, infraestrutura de desenvolvimento e teste, etc.
Esta é uma estimativa baseada em uma experiência pessoal descontada de codificação.


203
Quando você consulta a IA, ela reúne informações relevantes para te responder.
Mas, quanta informação o modelo precisa?
Conversas com profissionais revelaram a sua intuição: a entrada era ~20x maior que a saída.
Mas meus experimentos com a interface de linha de comando da ferramenta Gemini, que fornece estatísticas detalhadas de tokens, revelaram que é muito maior.
300x em média e até 4000x.
Aqui está o porquê dessa alta relação entrada-saída ser importante para quem está construindo com IA:
A Gestão de Custos é Tudo Sobre a Entrada. Com chamadas de API precificadas por token, uma relação de 300:1 significa que os custos são ditados pelo contexto, não pela resposta. Essa dinâmica de preços se mantém verdadeira em todos os principais modelos.
Na página de preços da OpenAI, os tokens de saída para o GPT-4.1 são 4x mais caros que os tokens de entrada. Mas quando a entrada é 300x mais volumosa, os custos de entrada ainda representam 98% da conta total.
A Latência é uma Função do Tamanho do Contexto. Um fator importante que determina quanto tempo um usuário espera por uma resposta é o tempo que o modelo leva para processar a entrada.
Isso Redefine o Desafio de Engenharia. Essa observação prova que o desafio central de construir com LLMs não é apenas a solicitação. É a engenharia de contexto.
A tarefa crítica é construir recuperação de dados eficiente e contexto - criando pipelines que podem encontrar as melhores informações e destilá-las na menor pegada de token possível.
O Cache Torna-se Crítico. Se 99% dos tokens estão na entrada, construir uma camada de cache robusta para documentos frequentemente recuperados ou contextos de consulta comuns passa de um "bom de ter" para um requisito arquitetônico central para construir um produto escalável e econômico.
Para os desenvolvedores, isso significa que focar na otimização da entrada é uma alavanca crítica para controlar custos, reduzir latência e, em última análise, construir um produto bem-sucedido alimentado por IA.




4,18K
Ontem, a Figma apresentou seu S-1 lindamente projetado.
Ele revela um negócio de crescimento orientado por produtos (PLG) com uma trajetória notável. A plataforma de ferramentas de design colaborativo da Figma perturbou o mercado de design, que era dominado pela Adobe.
Aqui está como as duas empresas se comparam em métricas-chave para seu ano fiscal mais recente [veja a imagem anexada]:
A Figma é cerca de 3% do tamanho da Adobe, mas está crescendo 4x mais rápido. As margens brutas são idênticas. A retenção líquida de dólares da Figma de 132% está no décimo superior.
Os dados também mostram que os gastos da Figma em Pesquisa e Desenvolvimento quase igualam os gastos em Vendas e Marketing.
Este é o modelo PLG em seu melhor. O produto da Figma é seu principal motor de marketing. Sua natureza colaborativa promove uma adoção viral, de baixo para cima, levando a uma eficiência de vendas de classe mundial de 1.0. Para cada dólar gasto em vendas e marketing em 2023, a Figma gerou um dólar de novo lucro bruto em 2024. O modelo misto de baixo para cima e liderado por vendas da Adobe resulta em um mais típico 0.39.
O S-1 também destaca riscos. O mais significativo é a concorrência de produtos de IA. Embora a Figma esteja investindo pesadamente em IA, a tecnologia reduz a barreira para novos entrantes. A defesa da Figma é sua plataforma em expansão—com produtos como FigJam, Dev Mode, e agora Slides, Sites, e Make.
Essas novas categorias de produtos levaram muitas empresas de software PLG de IA a dezenas e centenas de milhões em ARR em tempo recorde.
Dada sua alta taxa de crescimento e modelo de negócios único, como o mercado deve valorizar a Figma? Podemos usar uma regressão linear baseada em empresas SaaS públicas para prever seu múltiplo de receita futura. O modelo mostra uma correlação modesta entre crescimento de receita e múltiplos de avaliação (R² = 0.23).
A Figma, com seu crescimento de 48%, seria a empresa de software de crescimento mais rápido neste grupo, deixando de lado a NVIDIA. Um caso convincente pode ser feito de que a Figma deve comandar uma avaliação superior à prevista. Sua combinação de hiper-crescimento, eficiência de vendas de classe mundial e uma base de usuários apaixonada e auto-propagante é rara.
Aplicando o múltiplo previsto de 19.9x do nosso modelo para estimar a receita futura, resulta em uma avaliação de IPO estimada de aproximadamente $21B - um prêmio em relação aos $20B que a Adobe ofereceu pela empresa em 2022.
O S-1 conta a história de uma empresa que define a categoria, que construiu um produto de design colaborativo, desenvolveu um movimento PLG fenomenal e está se aventurando ativamente em IA.
A taxa de rescisão de $1.0 bilhão da Adobe foi recebida em dezembro de 2023 e registrada como "Outros rendimentos, líquidos" no Ano Fiscal de 2024 (terminando em 31 de janeiro de 2024). A grande cobrança de compensação baseada em ações de quase $900 milhões está relacionada a uma oferta de compra de ações de funcionários em maio de 2024. Ambos esses valores são removidos nos dados não-GAAP citados acima.
Ao considerar a taxa de crescimento de 48.3% da Figma nos últimos doze meses e descontá-la em 15% (para levar em conta uma desaceleração natural do crescimento), o modelo produz uma estimativa de crescimento futuro de 41.1%. Isso implicaria uma receita futura de cerca de $1.1b.



6,33K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável