Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
¡Esto fue muy divertido, Mario! Gracias por invitarme al programa para hablar sobre todo lo que está sucediendo en el mercado.

Mario Gabriele 🦊22 jul, 20:22
¡Nuestro último episodio con Tomasz Tunguz ya está disponible!
La Década de los Datos
@ttunguz ha pasado casi dos décadas convirtiendo datos en ideas de inversión. Después de respaldar a Looker, Expensify y Monte Carlo en Redpoint Ventures, lanzó @Theoryvc en 2022 con una visión audaz: construir una "corporación de inversión" donde investigadores, ingenieros y operadores se sientan junto a inversores, creando mapas de mercado en tiempo real y herramientas de IA internas. Su fondo debut cerró en 238 millones de dólares, seguido solo 19 meses después por un segundo fondo de 450 millones de dólares. Centrado en datos, IA e infraestructura cripto, Theory opera en el corazón de los cambios tecnológicos más significativos de hoy. Exploramos cómo los datos están remodelando el capital de riesgo, por qué los modelos de inversión tradicionales están siendo interrumpidos y qué se necesita para construir una firma que no solo prediga el futuro, sino que también ayude a crearlo activamente.
Escucha ahora:
• YouTube:
• Spotify:
• Apple:
Un gran agradecimiento a los increíbles patrocinadores que hacen posible el podcast:
✨ Brex — La solución bancaria para startups:
✨ Generalist+ — Inteligencia esencial para inversores y tecnólogos modernos:
Exploramos:
→ Cómo funciona el modelo de "corporación de inversión" de Theory
→ Por qué los intercambios de cripto podrían crear un camino viable hacia los mercados públicos para empresas de software de pequeña capitalización
→ La inminente crisis de energía: por qué los centros de datos podrían consumir el 15% de la electricidad de EE. UU. en cinco años
→ El rápido ascenso de las stablecoins a medida que los grandes bancos canalizan el 5-10% de los dólares estadounidenses a través de ellas
→ Por qué Ethereum enfrenta un desafío existencial similar a AWS perdiendo terreno frente a Azure en la era de la IA
→ Por qué Tomasz cree que el puñado de agentes de hoy se convertirá en más de 100 co-trabajadores digitales para fin de año
→ Por qué Meta está apostando miles de millones en gafas de AR para cambiar cómo interactuamos con las máquinas
→ Cómo Theory Ventures utiliza IA para acelerar la investigación de mercado, el análisis de acuerdos y las decisiones de inversión
…¡Y mucho más!
7,64K
OpenAI recibe, en promedio, 1 consulta por estadounidense al día.
Google recibe alrededor de 4 consultas por estadounidense al día.
Desde entonces, el 50% de las consultas de búsqueda de Google tienen Resúmenes de IA, lo que significa que al menos el 60% de las búsquedas en EE. UU. son ahora de IA.
Ha tardado un poco más de lo que esperaba que esto sucediera. En 2024, predije que el 50% de las búsquedas de los consumidores estarían habilitadas por IA. (
Pero la IA ha llegado a la búsqueda.
Si los patrones de búsqueda de Google son un indicativo, hay una ley de potencia en el comportamiento de búsqueda. El análisis de SparkToro sobre el comportamiento de búsqueda en Google muestra que el tercio superior de los estadounidenses que buscan ejecutan más del 80% de todas las búsquedas, lo que significa que el uso de IA no es probablemente uniforme, como el futuro.
Los sitios web y las empresas están comenzando a sentir los impactos de esto. El artículo de The Economist "La IA está matando la web. ¿Puede salvarse algo?" captura el zeitgeist en un titular. (
Una supermayoría de estadounidenses ahora busca con IA. Los efectos de segundo orden de los patrones de búsqueda cambiantes llegarán en la segunda mitad de este año y más personas preguntarán, "¿Qué pasó con mi tráfico?" (
La IA es un nuevo canal de distribución y aquellos que lo aprovechen ganarán cuota de mercado.
- ¡William Gibson vio mucho más lejos en el futuro!
- Esto se basa en un análisis de punto medio del gráfico de SparkToro, es un análisis muy simple y tiene algún error como resultado.

8,54K
Al trabajar con IA, me detengo antes de escribir cualquier cosa en el cuadro para hacerme una pregunta: ¿qué espero de la IA?
¡2x2 al rescate! ¿En qué cuadro estoy?
En un eje, cuánta información proporciono: muy poca a bastante. En el otro, si debo observar a la IA o dejarla funcionar.
Si proporciono muy poca información y dejo que el sistema funcione: 'investigar tendencias de Ingenieros Desplegados en el Futuro', obtengo resultados desechables: visiones generales amplias sin detalles relevantes.
Ejecutar el mismo proyecto con una serie de preguntas cortas produce una conversación iterativa que tiene éxito: una Exploración.
“¿Qué empresas han implementado Ingenieros Desplegados en el Futuro (FDEs)? ¿Cuáles son los antecedentes típicos de los FDEs? ¿Qué tipos de estructuras contractuales y negocios se prestan a este trabajo?”
Cuando tengo una tolerancia muy baja a los errores, proporciono un contexto extenso y trabajo de manera iterativa con la IA. Para publicaciones de blog o análisis financieros, comparto todo (borradores actuales, escritos anteriores, requisitos detallados) y luego procedo frase por frase.
Dejar que un agente funcione libremente requiere definir todo de antemano. Rara vez tengo éxito aquí porque el trabajo previo exige una claridad tremenda: objetivos exactos, información completa y listas de tareas detalladas con criterios de validación: un esquema.
Estos mensajes terminan pareciendo los documentos de requisitos de producto que escribí como gerente de producto.
La respuesta a '¿qué espero?' se volverá más fácil a medida que los sistemas de IA accedan a más de mi información y mejoren en seleccionar datos relevantes. A medida que me vuelvo mejor articulando lo que realmente quiero, la colaboración mejora.
Mi objetivo es mover muchas más de mis preguntas fuera del cuadrante superior izquierdo - cómo fui entrenado con la búsqueda de Google - hacia los otros tres cuadrantes.
También espero que este hábito me ayude a trabajar mejor con las personas.

2,89K
Esa pequeña caja negra en el medio es código de aprendizaje automático.
Recuerdo haber leído el artículo de Google de 2015 sobre la Deuda Técnica Oculta en ML y pensar en cuán poco de una aplicación de aprendizaje automático era realmente aprendizaje automático.
La gran mayoría era infraestructura, gestión de datos y complejidad operativa.
Con el advenimiento de la IA, parecía que los modelos de lenguaje grandes absorberían estas cajas. La promesa era simplicidad: introduce un LLM y observa cómo maneja todo, desde el servicio al cliente hasta la generación de código. No más tuberías complejas o integraciones frágiles.
Pero al construir aplicaciones internas, hemos observado una dinámica similar con la IA.
Los agentes necesitan mucho contexto, como un humano: ¿cómo está estructurado el CRM, qué ingresamos en cada campo? - pero la entrada es costosa para el modelo Hambriento, Hambriento de IA.
Reducir costos significa escribir software determinista para reemplazar el razonamiento de la IA.
Por ejemplo, automatizar la gestión de correos electrónicos significa escribir herramientas para crear tareas en Asana y actualizar el CRM.
A medida que el número de herramientas aumenta más allá de diez o quince, la llamada a herramientas ya no funciona. Es hora de implementar un modelo de aprendizaje automático clásico para seleccionar herramientas.
Luego está la observación del sistema, evaluando si es eficiente y dirigiendo al modelo correcto. Además, hay toda una categoría de software para asegurarse de que la IA haga lo que se supone que debe hacer.
Las barandillas evitan respuestas inapropiadas. La limitación de tasa detiene los costos de dispararse fuera de control cuando un sistema se vuelve loco.
La recuperación de información (RAG - generación aumentada por recuperación) es esencial para cualquier sistema de producción. En mi aplicación de correo electrónico, utilizo una base de datos vectorial LanceDB para encontrar todos los correos electrónicos de un remitente particular y hacer coincidir su tono.
Hay otras técnicas para la gestión del conocimiento en torno a RAG gráfico y bases de datos vectoriales especializadas.
Más recientemente, la memoria se ha vuelto mucho más importante. Las interfaces de línea de comandos para herramientas de IA guardan el historial de conversaciones como archivos markdown.
Cuando publico gráficos, quiero que la leyenda de Theory Ventures esté en la esquina inferior derecha, una fuente particular, colores y estilos. Ahora, todo eso se guarda dentro de archivos .gemini o .claude en una serie de directorios en cascada.
La simplicidad original de los modelos de lenguaje grandes ha sido absorbida por la complejidad de producción de nivel empresarial.
Esto no es idéntico a la generación anterior de sistemas de aprendizaje automático, pero sigue un claro paralelo. Lo que parecía ser una simple "caja mágica de IA" resulta ser un iceberg, con la mayor parte del trabajo de ingeniería oculto bajo la superficie.


3,63K
Si 2025 es el año de los agentes, entonces 2026 seguramente pertenecerá a los gerentes de agentes.
Los gerentes de agentes son personas que pueden gestionar equipos de agentes de IA. ¿Cuántos puede gestionar con éxito una sola persona?
Apenas puedo gestionar 4 agentes de IA a la vez. Piden aclaraciones, solicitan permisos, realizan búsquedas en la web, todo lo cual requiere mi atención. A veces una tarea toma 30 segundos. Otras veces, 30 minutos. Pierdo la noción de qué agente está haciendo qué y la mitad del trabajo se tira porque malinterpretan las instrucciones.
Este no es un problema de habilidades. Es un problema de herramientas.
Los robots físicos ofrecen pistas sobre la productividad de los gerentes de robots. MIT publicó un análisis en 2020 que sugería que el robot promedio reemplazaba 3.3 trabajos humanos. En 2024, Amazon informó que los robots de recogida, empaquetado y envío reemplazaron a 24 trabajadores.
Pero hay una diferencia crítica: la IA es no determinista. Los agentes de IA interpretan instrucciones. Improvisan. Ocasionalmente ignoran direcciones por completo. Un Roomba solo puede soñar con la libertad creativa de ignorar tu sala de estar y decidir que el garaje necesita atención en su lugar.
La teoría de la gestión a menudo guía a los equipos a un rango de control de 7 personas.
Hablando con algunos mejores gerentes de agentes, he aprendido que utilizan una bandeja de entrada de agentes, una herramienta de gestión de proyectos para solicitar trabajo de IA y evaluarlo. En ingeniería de software, las solicitudes de extracción de Github o los tickets de Linear sirven para este propósito.
Los ingenieros de software de IA muy productivos gestionan de 10 a 15 agentes especificando de 10 a 15 tareas en detalle, enviándolas a una IA, esperando hasta la finalización y luego revisando el trabajo. La mitad del trabajo se tira y se reinicia con un aviso mejorado.
La bandeja de entrada de agentes no es popular - aún. No está ampliamente disponible.
Pero sospecho que se convertirá en una parte esencial de la pila de productividad para los futuros gerentes de agentes porque es la única forma de hacer un seguimiento del trabajo que puede llegar en cualquier momento.
Si el ARR por empleado es la nueva métrica de vanidad para las startups, entonces los agentes gestionados por persona pueden convertirse en la métrica de productividad de vanidad de un trabajador.
En 12 meses, ¿cuántos agentes crees que podrías gestionar? ¿10? ¿50? ¿100? ¿Podrías gestionar un agente que gestiona otros agentes?

7,83K
Durante la última década, el mayor gasto en el presupuesto de I+D de cualquier startup era el talento predecible. Pero la IA está abriéndose camino en la cuenta de resultados.
¿Cuánto debería gastar una startup en IA como porcentaje de su gasto en investigación y desarrollo?
¿10%? ¿30%? ¿60%?
Hay tres factores a considerar. Primero, el salario promedio de un ingeniero de software en Silicon Valley. Segundo, el costo total de la IA utilizada por ese ingeniero. Cursor ahora está en $200 al mes para su Plan Ultra y las reseñas de Devin sugieren $500 al mes. Tercero, el número de agentes que un ingeniero puede gestionar.
Un primer intento: (primera imagen)
Pero los costos de suscripción probablemente son bajos. Durante los últimos días he estado experimentando extensamente con agentes de codificación de IA y acumulé una factura de $1,000 en el transcurso de cinco días! 😳😅
Así que actualicemos la tabla y asumamos otros $1000 al mes por ingeniero.
Por lo tanto, para una startup típica, una estimación del 10 al 15% del gasto total en I+D hoy podría usarse concebidamente para IA.
Las variantes serán mucho más amplias en la práctica a medida que todos aprendamos a usar mejor la IA y esta penetre más en la organización. Las empresas más pequeñas que son nativas de IA desde el principio probablemente tendrán ratios significativamente más altos.
Si estás interesado en participar en una encuesta anónima, publicaré los resultados si el tamaño de la muestra es lo suficientemente grande como para tener un resultado estadísticamente significativo.
La encuesta está aquí:
Este es un modelo groseramente simplificado donde solo estamos revisando salarios, sin incluir beneficios, hardware, infraestructura de desarrollo y prueba, etc.
Esta es una estimación basada en la experiencia personal de codificación.


1,94K
Durante la última década, el mayor gasto en el presupuesto de I+D de cualquier startup era el talento predecible. Pero la IA está abriéndose camino en la cuenta de resultados.
¿Cuánto debería gastar una startup en IA como porcentaje de su gasto en investigación y desarrollo?
¿10%? ¿30%? ¿60%?
Hay tres factores a considerar. Primero, el salario promedio de un ingeniero de software en Silicon Valley. Segundo, el costo total de la IA utilizada por ese ingeniero. Cursor ahora está en $200 al mes para su Plan Ultra y las reseñas de Devin sugieren $500 al mes. Tercero, el número de agentes que un ingeniero puede gestionar.
Un primer intento: (primera imagen)
Pero los costos de suscripción probablemente son bajos. Durante los últimos días he estado experimentando extensamente con agentes de codificación de IA y acumulé una factura de $1,000 en el transcurso de cinco días! 😳😅
Así que actualicemos la tabla y asumamos otros $1000 al mes por ingeniero.
Por lo tanto, para una startup típica, una estimación del 10 al 15% del gasto total en I+D hoy podría usarse concebidamente para IA.
Las variantes serán mucho más amplias en la práctica a medida que todos aprendamos a usar mejor la IA y esta penetre más en la organización. Las empresas más pequeñas que son nativas de IA desde el principio probablemente tendrán ratios significativamente más altos.
Si estás interesado en participar en una encuesta anónima, publicaré los resultados si el tamaño de la muestra es lo suficientemente grande como para tener un resultado estadísticamente significativo.
La encuesta está aquí:
Este es un modelo groseramente simplificado donde solo estamos revisando salarios, sin incluir beneficios, hardware, infraestructura de desarrollo y prueba, etc.
Esta es una estimación basada en la experiencia personal de codificación.


200
Cuando consultas a la IA, esta recopila información relevante para responderte.
Pero, ¿cuánta información necesita el modelo?
Las conversaciones con profesionales revelaron su intuición: la entrada era ~20 veces mayor que la salida.
Pero mis experimentos con la interfaz de línea de comandos de la herramienta Gemini, que proporciona estadísticas detalladas de tokens, revelaron que es mucho más alta.
300 veces en promedio y hasta 4000 veces.
Aquí está la razón por la que esta alta relación de entrada a salida es importante para cualquiera que esté construyendo con IA:
La gestión de costos se trata de la entrada. Con las llamadas a la API con precios por token, una relación de 300:1 significa que los costos están dictados por el contexto, no por la respuesta. Esta dinámica de precios se mantiene en todos los modelos principales.
En la página de precios de OpenAI, los tokens de salida para GPT-4.1 son 4 veces más caros que los tokens de entrada. Pero cuando la entrada es 300 veces más voluminosa, los costos de entrada siguen siendo el 98% de la factura total.
La latencia es una función del tamaño del contexto. Un factor importante que determina cuánto tiempo espera un usuario por una respuesta es el tiempo que tarda el modelo en procesar la entrada.
Redefine el desafío de ingeniería. Esta observación demuestra que el desafío central de construir con LLMs no es solo la indicación. Es la ingeniería del contexto.
La tarea crítica es construir una recuperación de datos eficiente y contexto: crear tuberías que puedan encontrar la mejor información y destilarla en la huella de token más pequeña posible.
El almacenamiento en caché se vuelve crítico. Si el 99% de los tokens están en la entrada, construir una capa de caché robusta para documentos recuperados con frecuencia o contextos de consulta comunes pasa de ser un "bono" a un requisito arquitectónico central para construir un producto rentable y escalable.
Para los desarrolladores, esto significa que centrarse en la optimización de la entrada es una palanca crítica para controlar costos, reducir la latencia y, en última instancia, construir un producto exitoso impulsado por IA.




4,18K
Ayer, Figma presentó su S-1 bellamente diseñado.
Revela un negocio de crecimiento impulsado por el producto (PLG) con una trayectoria notable. La plataforma de herramientas de diseño colaborativo de Figma interrumpió el mercado de diseño que había sido dominado por Adobe durante mucho tiempo.
Aquí se muestra cómo se comparan las dos empresas en métricas clave para su año fiscal más reciente [ver imagen adjunta]:
Figma es aproximadamente el 3% del tamaño de Adobe, pero está creciendo 4 veces más rápido. Los márgenes brutos son idénticos. La Retención de Dólares Netos del 132% de Figma está en el decil superior.
Los datos también muestran que el gasto en Investigación y Desarrollo de Figma casi iguala al gasto en Ventas y Marketing.
Este es el modelo PLG en su mejor momento. El producto de Figma es su principal motor de marketing. Su naturaleza colaborativa fomenta una adopción viral de abajo hacia arriba, lo que lleva a una eficiencia de ventas de clase mundial de 1.0. Por cada dólar gastado en ventas y marketing en 2023, Figma generó un dólar de nuevo beneficio bruto en 2024. El modelo combinado de abajo hacia arriba y liderado por ventas de Adobe produce un más típico 0.39.
El S-1 también destaca riesgos. El más significativo es la competencia de productos de IA. Aunque Figma está invirtiendo fuertemente en IA, la tecnología reduce la barrera para nuevos entrantes. La defensa de Figma es su plataforma en expansión, con productos como FigJam, Dev Mode, y ahora Slides, Sites y Make.
Estas nuevas categorías de productos han llevado a muchas empresas de software de IA PLG a decenas y cientos de millones en ARR en tiempo récord.
Dada su alta tasa de crecimiento y su modelo de negocio único, ¿cómo debería valorar el mercado a Figma? Podemos usar una regresión lineal basada en empresas SaaS públicas para predecir su múltiplo de ingresos futuros. El modelo muestra una correlación modesta entre el crecimiento de ingresos y los múltiplos de valoración (R² = 0.23).
Figma, con su crecimiento del 48%, sería la empresa de software de más rápido crecimiento en este grupo, dejando de lado a NVIDIA. Se puede hacer un caso convincente de que Figma debería tener una valoración superior a la predicha. Su combinación de hipercrecimiento, eficiencia de ventas de clase mundial y una base de usuarios apasionada y auto-propagante es rara.
Aplicando el múltiplo predicho de 19.9x de nuestro modelo para estimar los ingresos futuros, se obtiene una valoración estimada de IPO de aproximadamente $21B 2 - una prima sobre los $20B que Adobe ofreció por la empresa en 2022.
El S-1 cuenta la historia de una empresa que define una categoría, que construyó un producto de diseño colaborativo, desarrolló un movimiento PLG fenomenal y está empujando activamente hacia la IA.
La tarifa de terminación de $1.0 mil millones de Adobe se recibió en diciembre de 2023 y se registró como "Otros ingresos, neto" en el Año Fiscal 2024 (que finaliza el 31 de enero de 2024). La gran carga de compensación basada en acciones de casi $900 millones está relacionada con una oferta de compra de empleados en mayo de 2024. Ambos se eliminan en los datos no GAAP citados anteriormente.
Al tomar la tasa de crecimiento del 48.3% de los últimos doce meses de Figma y descontarla en un 15% (para tener en cuenta una desaceleración natural del crecimiento), el modelo produce una estimación de crecimiento futuro del 41.1%. Esto implicaría ingresos futuros de aproximadamente $1.1b.



6,32K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado