Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Esto fue muy divertido, Mario. ¡Gracias por invitarme al programa para hablar sobre todo lo que sucede en el mercado!

Mario Gabriele 🦊22 jul, 20:22
¡Nuestro último episodio con Tomasz Tunguz está en vivo!
La década de los datos
@ttunguz ha pasado casi dos décadas convirtiendo los datos en información de inversión. Después de respaldar a Looker, Expensify y Monte Carlo en Redpoint Ventures, lanzó @Theoryvc en 2022 con una visión audaz: construir una "corporación inversora" donde investigadores, ingenieros y operadores se sienten junto a los inversores, creando mapas de mercado en tiempo real y herramientas de inteligencia artificial internas. Su fondo debut cerró en 238 millones de dólares, seguido solo 19 meses después por un segundo fondo de 450 millones de dólares. Centrado en datos, inteligencia artificial e infraestructura criptográfica, Theory opera en el corazón de los cambios tecnológicos más importantes de la actualidad. Exploramos cómo los datos están remodelando el capital de riesgo, por qué se están alterando los modelos de inversión tradicionales y qué se necesita para construir una empresa que no solo prediga el futuro, sino que ayude activamente a crearlo.
Escucha ahora:
• YouTube:
• Spotify:
•Manzana:
Un gran agradecimiento a los increíbles patrocinadores que hacen posible el podcast:
✨ Brex: la solución bancaria para startups:
✨ Generalist+ — Inteligencia esencial para inversores y tecnólogos modernos:
Exploramos:
→ Cómo funciona el modelo de "corporación inversora" de Theory
→ Por qué los exchanges de criptomonedas podrían crear un camino viable hacia los mercados públicos para las empresas de software de pequeña capitalización
→ La inminente crisis energética: por qué los centros de datos podrían consumir el 15% de la electricidad de EE. UU. en cinco años
→ rápido ascenso de las stablecoins a medida que los principales bancos enrutan entre el 5 y el 10% de los dólares estadounidenses a través de ellas
→ Por qué Ethereum se enfrenta a un desafío existencial similar a AWS perdiendo terreno frente a Azure en la era de la IA
→ Por qué Tomasz cree que el puñado de agentes de hoy se convertirá en 100+ compañeros de trabajo digitales para fin de año
→ Por qué Meta está apostando miles de millones en gafas de realidad aumentada para cambiar la forma en que interactuamos con las máquinas
→ Cómo Theory Ventures utiliza la IA para acelerar la investigación de mercado, el análisis de acuerdos y las decisiones de inversión
… ¡Y mucho más!
7.63K
OpenAI recibe en promedio 1 consulta por estadounidense por día.
Google recibe alrededor de 4 consultas por estadounidense por día.
Desde entonces, el 50% de las consultas de búsqueda de Google tienen descripciones generales de IA, esto significa que al menos el 60% de las búsquedas de EE. UU. ahora son IA.
Ha tomado un poco más de tiempo de lo que esperaba para que esto suceda. En 2024, predije que el 50% de las búsquedas de los consumidores estarían habilitadas por IA. (
Pero la IA ha llegado en la búsqueda.
Si los patrones de búsqueda de Google son una indicación, hay una ley de potencia en el comportamiento de búsqueda. El análisis de SparkToro sobre el comportamiento de búsqueda de Google muestra que el tercio superior de los estadounidenses que realizan búsquedas ejecutan más del 80% de todas las búsquedas, lo que significa que es probable que el uso de la IA no se distribuya de manera uniforme, como en el futuro.
Los sitios web y las empresas están comenzando a sentir los impactos de esto. El artículo de The Economist "La IA está matando la web. ¿Puede algo salvarlo?" captura el espíritu de la época en un titular. (
Una gran mayoría de los estadounidenses ahora buscan con IA. Los efectos de segundo orden de los cambios en los patrones de búsqueda llegarán en la segunda mitad de este año y más se preguntarán: "¿Qué pasó con mi tráfico?" (
La IA es un nuevo canal de distribución y aquellos que lo aprovechen ganarán cuota de mercado.
- ¡William Gibson vio mucho más lejos en el futuro!
- Esto se basa en un análisis de punto medio del gráfico de SparkToro, es un análisis muy simple y, como resultado, tiene algún error.

8.53K
Al trabajar con IA, me detengo antes de escribir algo en el cuadro para hacerme una pregunta: ¿qué espero de la IA?
¡2x2 al rescate! ¿En qué caja estoy?
En un eje, cuánto contexto proporciono: no mucho o bastante. Por otro, si debería ver la IA o dejarla correr.
Si proporciono muy poca información y dejo que el sistema funcione: 'investiga las tendencias de los ingenieros desplegados hacia adelante', obtengo resultados desechables: amplias descripciones generales sin detalles relevantes.
Ejecutar el mismo proyecto con una serie de preguntas cortas produce una conversación iterativa que tiene éxito: una exploración.
"¿Qué empresas han implementado ingenieros desplegados hacia adelante (FDE)? ¿Cuáles son los antecedentes típicos de los FDE? ¿Qué tipos de estructuras de contrato y negocios se prestan a este trabajo?"
Cuando tengo una tolerancia muy baja a los errores, proporciono un contexto extenso y trabajo iterativamente con la IA. Para publicaciones de blog o análisis financiero, comparto todo (borradores actuales, escritos anteriores, requisitos detallados) y luego procedo oración por oración.
Dejar que un agente corra libremente requiere definir todo por adelantado. Rara vez tengo éxito aquí porque el trabajo inicial exige una tremenda claridad: objetivos exactos, información completa y listas de tareas detalladas con criterios de validación, un esquema.
Estas indicaciones terminan pareciéndose a los documentos de requisitos del producto que escribí como gerente de producto.
La respuesta a '¿qué espero?' se volverá más fácil a medida que los sistemas de IA accedan a más de mi información y mejoren en la selección de datos relevantes. A medida que mejoro en la articulación de lo que realmente quiero, la colaboración mejora.
Mi objetivo es sacar muchas más de mis preguntas del cubo superior izquierdo, cómo me entrenaron con la búsqueda de Google, a los otros tres cuadrantes.
También espero que este hábito me ayude a trabajar mejor con las personas.

2.88K
Esa pequeña caja negra en el medio es el código de aprendizaje automático.
Recuerdo haber leído el artículo de Google de 2015 sobre la deuda técnica oculta en ML y pensar en lo poco que una aplicación de aprendizaje automático era un aprendizaje automático real.
La gran mayoría fue la infraestructura, la gestión de datos y la complejidad operativa.
Con los albores de la IA, parecía que los grandes modelos de lenguaje subsumirían estas cajas. La promesa era simple: entrar en un LLM y ver cómo se encarga de todo, desde el servicio al cliente hasta la generación de código. Se acabaron las canalizaciones complejas y las integraciones frágiles.
Pero en la creación de aplicaciones internas, hemos observado una dinámica similar con la IA.
Los agentes necesitan mucho contexto, como un humano: cómo está estructurado el CRM, qué introducimos en cada campo, pero la entrada es costosa en el modelo de IA Hungry, Hungry.
Reducir el costo significa escribir software determinista para reemplazar el razonamiento de la IA.
Por ejemplo, automatizar la gestión de correo electrónico significa escribir herramientas para crear tareas de Asana y actualizar el CRM.
A medida que el número de herramientas aumenta más allá de diez o quince herramientas, la llamada a la herramienta ya no funciona. Es hora de poner en marcha un modelo clásico de aprendizaje automático para seleccionar herramientas.
Luego está la observación del sistema con observabilidad, la evaluación de si es eficiente y el enrutamiento al modelo correcto. Además, hay toda una categoría de software para asegurarse de que la IA haga lo que se supone que debe hacer.
Las barandillas evitan respuestas inapropiadas. La limitación de velocidad evita que los costos se salgan de control cuando un sistema se descontrola.
La recuperación de información (RAG - retrieval augmented generation) es esencial para cualquier sistema de producción. En mi aplicación de correo electrónico, utilizo una base de datos vectorial LanceDB para encontrar todos los correos electrónicos de un remitente en particular y hacer coincidir su tono.
Existen otras técnicas para la gestión del conocimiento en torno a las bases de datos de grafos RAG y vectores especializados.
Más recientemente, la memoria se ha vuelto mucho más importante. Las interfaces de línea de comandos para las herramientas de IA guardan el historial de conversaciones como archivos de rebajas.
Cuando publico gráficos, quiero el título de Theory Ventures en la parte inferior derecha, una fuente, colores y estilos en particular. Ahora todos ellos se guardan en archivos .gemini o .claude en una serie de directorios en cascada.
La simplicidad original de los modelos de lenguaje de gran tamaño ha sido subsumida por la complejidad de la producción de nivel empresarial.
Esto no es idéntico a la generación anterior de sistemas de aprendizaje automático, pero sigue un claro paralelismo. Lo que parecía ser una simple "caja mágica de IA" resulta ser un iceberg, con la mayor parte del trabajo de ingeniería oculto bajo la superficie.


3.63K
Si 2025 es el año de los agentes, entonces 2026 seguramente pertenecerá a los gerentes de agentes.
Los gestores de agentes son personas que pueden gestionar equipos de agentes de IA. ¿Cuántos puede manejar con éxito una persona?
Apenas puedo gestionar 4 agentes de IA a la vez. Piden aclaraciones, solicitan permiso, realizan búsquedas en la web, todo lo cual requiere mi atención. A veces, una tarea tarda 30 segundos. Otras veces, 30 minutos. Pierdo la cuenta de qué agente está haciendo qué y la mitad del trabajo se tira a la basura porque malinterpretan las instrucciones.
Este no es un problema de habilidad. Es un problema de herramientas.
Los robots físicos ofrecen pistas sobre la productividad de los gestores de robots. El MIT publicó un análisis en 2020 que sugería que el robot medio sustituía a 3,3 puestos de trabajo humanos. En 2024, Amazon informó que los robots de pickpack y ship reemplazaron a 24 trabajadores.
Pero hay una diferencia fundamental: la IA no es determinista. Los agentes de IA interpretan las instrucciones. Improvisan. Ocasionalmente ignoran las instrucciones por completo. Un Roomba solo puede soñar con la libertad creativa de ignorar su sala de estar y decidir que el garaje necesita atención.
La teoría de la administración a menudo guía a los equipos a un lapso de control de 7 personas.
Hablando con algunos mejores gerentes de agentes, he aprendido que usan una bandeja de entrada de agentes, una herramienta de gestión de proyectos para solicitar trabajo de IA y evaluarlo. En ingeniería de software, las solicitudes de incorporación de cambios de Github o los tickets lineales sirven para este propósito.
Los ingenieros de software de IA muy productivos gestionan de 10 a 15 agentes especificando de 10 a 15 tareas en detalle, enviándolas a una IA, esperando hasta su finalización y luego revisando el trabajo. La mitad del trabajo se desecha y se reinicia con un aviso mejorado.
La bandeja de entrada del agente no es popular, todavía. No está ampliamente disponible.
Pero sospecho que se convertirá en una parte esencial de la pila de productividad para los futuros gerentes de agentes porque es la única forma de realizar un seguimiento del trabajo que puede llegar en cualquier momento.
Si el ARR por empleado es la nueva métrica de vanidad para las startups, entonces los agentes gestionados por persona pueden convertirse en la métrica de productividad de vanidad de un trabajador.
En 12 meses, ¿cuántos agentes crees que podrías gestionar? 10? 50? 100? ¿Podría administrar un agente que administra a otros agentes?

7.83K
Durante la última década, la partida más grande en el presupuesto de investigación y desarrollo de cualquier startup fue el talento predecible. Pero la IA se está abriendo camino en la cuenta de resultados.
¿Cuánto debe gastar una startup en IA como porcentaje de su gasto en investigación y desarrollo?
10%? 30%? 60?
Hay tres factores a tener en cuenta. En primer lugar, el salario medio de un ingeniero de software en Silicon Valley. El segundo es el costo total de la IA utilizada por ese ingeniero. Cursor ahora cuesta $ 200 por mes para su plan Ultra y las reseñas de Devin sugieren $ 500 por mes. En tercer lugar, el número de agentes que puede gestionar un ingeniero.
Un primer paso : (primera imagen)
Pero los costos de suscripción son probablemente bajos. En los últimos días, he estado jugando mucho con agentes de codificación de IA y acumulé una factura de $ 1,000 en el lapso de cinco días. 😳😅
Así que actualicemos la tabla y supongamos otros $ 1000 por mes por ingeniero.
Por lo tanto, para una startup típica, una estimación del 10 al 15% del gasto total en investigación y desarrollo hoy en día podría usarse para la IA.
Las variantes serán mucho más amplias en la práctica a medida que todos aprendamos a utilizar mejor la IA y penetre más en la organización. Es probable que las empresas más pequeñas que son nativas de IA desde el principio tengan proporciones significativamente más altas.
Si está interesado en participar en una encuesta anónima, publicaré los resultados si el tamaño de la muestra es lo suficientemente grande como para tener un resultado estadísticamente significativo.
La encuesta está aquí :
Este es un modelo simplificado en el que solo estamos revisando los salarios, sin incluir los beneficios, el hardware, la infraestructura de desarrollo y pruebas, etc.
Esta es una estimación basada en la codificación de vibraciones de experiencia personal con descuento.


1.93K
Durante la última década, la partida más grande en el presupuesto de investigación y desarrollo de cualquier startup fue el talento predecible. Pero la IA se está abriendo camino en la cuenta de resultados.
¿Cuánto debe gastar una startup en IA como porcentaje de su gasto en investigación y desarrollo?
10%? 30%? 60?
Hay tres factores a tener en cuenta. En primer lugar, el salario medio de un ingeniero de software en Silicon Valley. El segundo es el costo total de la IA utilizada por ese ingeniero. Cursor ahora cuesta $ 200 por mes para su plan Ultra y las reseñas de Devin sugieren $ 500 por mes. En tercer lugar, el número de agentes que puede gestionar un ingeniero.
Un primer paso : (primera imagen)
Pero los costos de suscripción son probablemente bajos. En los últimos días, he estado jugando mucho con agentes de codificación de IA y acumulé una factura de $ 1,000 en el lapso de cinco días. 😳😅
Así que actualicemos la tabla y supongamos otros $ 1000 por mes por ingeniero.
Por lo tanto, para una startup típica, una estimación del 10 al 15% del gasto total en investigación y desarrollo hoy en día podría usarse para la IA.
Las variantes serán mucho más amplias en la práctica a medida que todos aprendamos a utilizar mejor la IA y penetre más en la organización. Es probable que las empresas más pequeñas que son nativas de IA desde el principio tengan proporciones significativamente más altas.
Si está interesado en participar en una encuesta anónima, publicaré los resultados si el tamaño de la muestra es lo suficientemente grande como para tener un resultado estadísticamente significativo.
La encuesta está aquí :
Este es un modelo simplificado en el que solo estamos revisando los salarios, sin incluir los beneficios, el hardware, la infraestructura de desarrollo y pruebas, etc.
Esta es una estimación basada en la codificación de vibraciones de experiencia personal con descuento.


192
Cuando consulta a la IA, recopila información relevante para responderle.
Pero, ¿cuánta información necesita el modelo?
Las conversaciones con los practicantes revelaron su intuición: la entrada era ~ 20 veces mayor que la salida.
Pero mis experimentos con la interfaz de línea de comandos de la herramienta Gemini, que genera estadísticas detalladas de tokens, revelaron que es mucho más alta.
300x en promedio y hasta 4000x.
He aquí por qué esta alta relación entrada-salida es importante para cualquiera que construya con IA:
La gestión de costos tiene que ver con la entrada. Con las llamadas a la API con un precio por token, una proporción de 300:1 significa que los costos están dictados por el contexto, no por la respuesta. Esta dinámica de precios se mantiene en todos los modelos principales.
En la página de precios de OpenAI, los tokens de salida para GPT-4.1 son 4 veces más caros que los tokens de entrada. Pero cuando el insumo es 300 veces más voluminoso, los costos de los insumos siguen siendo el 98% de la factura total.
La latencia es una función del tamaño del contexto. Un factor importante que determina cuánto tiempo espera un usuario una respuesta es el tiempo que tarda el modelo en procesar la entrada.
Redefine el desafío de ingeniería. Esta observación demuestra que el desafío central de construir con LLM no es solo la incitación. Es ingeniería de contexto.
La tarea crítica es crear una recuperación de datos y un contexto eficientes, creando canalizaciones que puedan encontrar la mejor información y destilarla en la menor huella de token posible.
El almacenamiento en caché se convierte en una misión crítica. Si el 99% de los tokens están en la entrada, la creación de una capa de almacenamiento en caché sólida para documentos recuperados con frecuencia o contextos de consulta comunes pasa de ser un requisito arquitectónico "agradable de tener" a un requisito arquitectónico central para crear un producto rentable y escalable.
Para los desarrolladores, esto significa que centrarse en la optimización de entradas es una palanca fundamental para controlar los costos, reducir la latencia y, en última instancia, crear un producto exitoso impulsado por IA.




4.17K
Ayer, Figma presentó su S-1 bellamente diseñado.
Revela un negocio de crecimiento liderado por productos (PLG) con una trayectoria notable. La plataforma de herramientas de diseño colaborativo de Figma irrumpió en el mercado del diseño, dominado durante mucho tiempo por Adobe.
Así es como las dos compañías se comparan con las métricas clave para su año fiscal más reciente [ver imagen adjunta]:
Figma tiene aproximadamente un 3% del tamaño de Adobe, pero crece 4 veces más rápido. Los márgenes brutos son idénticos. La retención neta en dólares del 132% de Figma es el decil superior.
Los datos también muestran que el gasto en investigación y desarrollo de Figma casi iguala el gasto en ventas y marketing.
Este es el modelo PLG en su máxima expresión. El producto de Figma es su principal motor de marketing. Su naturaleza colaborativa fomenta la adopción viral y ascendente, lo que lleva a una eficiencia de ventas 1.0, la mejor de su clase. Por cada dólar gastado en ventas y marketing en 2023, Figma generó un dólar de nuevo beneficio bruto en 2024. El modelo combinado de abajo hacia arriba y orientado a las ventas de Adobe produce un 0,39 más típico.
El S-1 también pone de relieve los riesgos. El más significativo es la competencia de los productos de IA. Si bien Figma está invirtiendo fuertemente en IA, la tecnología reduce la barrera para los nuevos participantes. La defensa de Figma es su plataforma en expansión, con productos como FigJam, Dev Mode y ahora Slides, Sites y Make.
Estas nuevas categorías de productos han llevado a muchas empresas de software de PLG AI a decenas y cientos de millones en ARR en un tiempo récord.
Dado su alto crecimiento y su modelo de negocio único, ¿cómo debería valorar el mercado a Figma? Podemos utilizar una regresión lineal basada en empresas públicas de SaaS para predecir su múltiplo de ingresos futuros. El modelo muestra una modesta correlación entre el crecimiento de los ingresos y los múltiplos de valoración (R² = 0,23).
Figma, con su crecimiento del 48%, sería la empresa de software de más rápido crecimiento en este grupo dejando de lado a NVIDIA. Se puede argumentar de manera convincente que Figma debería tener una valoración superior a la prevista. Su combinación de hipercrecimiento, la mejor eficiencia de ventas de su clase y una base de usuarios apasionada y autopropagada es rara.
Si aplicamos el múltiplo de 19,9x previsto por nuestro modelo para estimar los ingresos futuros, se obtiene una valoración estimada de la OPI de aproximadamente 21.000 millones de dólares2, una prima respecto a los 20.000 millones de dólares que Adobe ofreció por la empresa en 2022.
El S-1 cuenta la historia de una empresa que definió su categoría y que creó un producto de diseño colaborativo, desarrolló un movimiento PLG fenomenal y está impulsando activamente la IA.
La tarifa de terminación de 1.000 millones de dólares de Adobe se recibió en diciembre de 2023 y se registró como "Otros ingresos, netos" en el año fiscal 2024 (que finaliza el 31 de enero de 2024). El gran cargo de compensación basado en acciones de casi 900 millones de dólares está relacionado con una oferta pública de adquisición de empleados en mayo de 2024. Ambos se eliminan en los datos no GAAP citados anteriormente.
Al tomar la tasa de crecimiento del 48,3% de Figma en los últimos doce meses y descontarla en un 15% (para tener en cuenta una desaceleración natural del crecimiento), el modelo produce una estimación de crecimiento a futuro del 41,1%. Esto implicaría unos ingresos a futuro de unos 1.100 millones de dólares.



6.32K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas