Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Creador de AuditAgent | Producto AI x Crypto x | Construyendo economía agencial
¿Por qué OpenAI lanzó modelos con pesos abiertos? ¿Para acabar con su propio negocio... (o no?)
Sí, @OpenAI acaba de lanzar dos modelos con pesos abiertos, lo que significa que los desarrolladores pueden usarlos sin pagar nada a OpenAI. Específicamente, se lanzó bajo la licencia comercial más liberal, la Apache 2.0. Entonces, ¿por qué hizo esto OpenAI? Hay varios aspectos.
Pero quiero aclarar que cuando una empresa lanza un modelo con pesos abiertos, no significa que el modelo sea tan de código abierto como el código de código abierto que puedes ejecutar tú mismo, como el sistema operativo @Linux. No, con los modelos de IA es un poco diferente. En particular, un modelo es una caja negra, un conjunto de pesos. Y aunque puedes probarlo en diferentes tareas y ver cómo funciona, si no puedes reproducir el proceso de entrenamiento, nunca podrás saber si hay puertas traseras o vulnerabilidades de seguridad que terminaron dentro de este modelo, ya sea intencional o accidentalmente. Así que separémoslo de inmediato del código abierto. Desafortunadamente, los modelos con pesos de código abierto no pueden ser completamente confiables (aunque pueden ser baratos).
El otro aspecto que noté, mostrado en la imagen, es que la calidad de los modelos de código abierto no es muy diferente de los modelos insignia de OpenAI que solo están disponibles a través de API. ¡Esto es genial! ¡Esto es inesperado! ¿Pensarías cuánto dinero podría perder OpenAI al permitir que los desarrolladores usen sus modelos? Sin embargo, esto no es todo. Los modelos no son todo lo que obtienes al usar OpenAI a través de la API. Por ejemplo, cuando usas ChatGPT a través de la interfaz de usuario y eliges el modelo o3, en realidad hay un agente complejo trabajando en segundo plano que, mientras usa estos modelos, tiene mucha lógica escrita encima para realmente funcionar bien con tus documentos y herramientas. No tienes acceso a ellos a través de estos modelos que OpenAI publicó.
Entonces, ¿por qué OpenAI lanzó modelos con pesos abiertos? Primero, sus principales competidores, particularmente @Meta, @MistralAI y @deepseek_ai (oh, y @Google), ya han lanzado modelos competitivos con pesos abiertos que la gente usa. Y la popularidad de OpenAI entre las personas que usan modelos abiertos no está creciendo. Sin embargo, para los desarrolladores que necesitan tanto modelos con pesos abiertos (para cálculos locales/privados) como modelos accesibles a través de API (para cosas más difíciles), si necesitan ambos, simplemente no pueden usar OpenAI. Es más fácil para ellos usar a sus competidores como Google o DeepSeek.
En segundo lugar, hay una presión significativa tanto de los usuarios como de los reguladores que quieren más apertura. A la gente le preocupa que la IA pueda salirse de control o caer bajo el control de un grupo reducido de empresas en Silicon Valley, y la gente quiere más transparencia. Aunque me atrevería a decir que incluso solo preocupándose por la competencia y la disminución de ventas, tal movimiento hacia la apertura probablemente hará que el negocio de OpenAI sea aún más grande.
Y en tercer lugar, por supuesto, está la broma sobre el nombre de la empresa OpenAI. A juzgar por cómo se desarrolló todo, la empresa llamada OpenAI era la empresa de IA más cerrada entre los líderes. Esto es gracioso en sí mismo, pero ahora esto ha cambiado. ¿Qué piensas?

275
La mayoría de las personas no entienden en absoluto cómo funciona el reemplazo de personas por IA (o cómo NO funciona). Incluso una aceleración diez veces mayor de todo lo que hace un especialista no borra automáticamente el trabajo en sí; simplemente reescribe la economía que lo rodea. Cuando el precio efectivo de un entregable se desploma, la demanda latente que solía estar en la estantería de repente se vuelve viable. Nunca he conocido a un propietario de producto que piense que sus ingenieros están entregando más características de las que necesita la hoja de ruta; la lista de deseos siempre es más larga de lo que permite el número de empleados. Haz que cada característica cueste diez veces menos construirla y no reduces los equipos en un factor de diez; enciendes cada "bonito de tener" que antes parecía inasequible, además de productos completamente nuevos que nadie se molestó en definir.
Un estudio reciente de @Microsoft Research sobre el uso del Copilot en el mundo real subraya el mismo punto. Los usuarios vienen en busca de ayuda para redactar código o reunir hechos, pero el modelo termina entrenando, asesorando y enseñando, incorporando nuevos tipos de trabajo en una sola sesión. Las profesiones no son monolitos; son conjuntos de subprocessos, cada uno solo parcialmente (y de manera imperfecta) cubierto por los modelos actuales. A medida que las herramientas de IA evolucionan, el alcance del rol evoluciona con ellas, a menudo expandiéndose en lugar de encogerse.
Incluso en un auditor de contratos inteligentes de IA que hemos construido en @NethermindEth, a pesar de su nombre, nos enfocamos en una parte muy específica y estrecha del proceso: encontrar vulnerabilidades potenciales. Mientras tanto, los especialistas en seguridad utilizan esto como una herramienta y realizan un trabajo mucho más complejo y multifacético: formulando estrategias, validando hallazgos, corrigiendo la IA, añadiendo contexto implícito, comunicándose con los desarrolladores, descubriendo intenciones ocultas y gestionando expectativas.
Así que en lugar de contar qué trabajos "desaparecerán", es más útil preguntar qué problemas se vuelven dignos de resolver una vez que el costo marginal de resolverlos cae en picada. La historia sugiere que la respuesta es "mucho más de lo que podemos cubrir con personal", y eso aboga por un futuro donde el talento se redistribuye y multiplica, no se vuelve obsoleto.


308
Andrej Karpathy apoya la introducción de un nuevo término relacionado con la "ingeniería de contexto" en el desarrollo de software de IA utilizando LLM.
Y este término me ha parecido muy necesario durante mucho tiempo. Cada vez que explico a la gente cómo desarrollamos nuestro Nethermind AuditAgent, uno de los aspectos clave, además de utilizar la experiencia en el dominio (seguridad web3) y utilizar los mejores modelos de IA disponibles (de OpenAI, Anthropic y Google), y herramientas para LLM, es precisamente la "ingeniería de contexto".
A veces hay una expresión "el contexto es el rey", y realmente es cierto. Los LLM, ya sean grandes avanzados o pequeños LLM optimizados, son una herramienta poderosa, pero como cualquier herramienta, si está en las manos equivocadas, obtendrás resultados mucho menos prometedores de los que podrías obtener si trabajas con ellos correctamente. Y la gestión del contexto (o ingeniería) es, en efecto, un área compleja y no muy bien descrita que está en constante evolución, y realmente surgió como una extensión del concepto de ingeniería prompt, que ya tiene algunas connotaciones negativas.
En general, Andrej enumeró los principales aspectos relacionados con la ingeniería de contexto (en la segunda captura de pantalla), pero en cada tarea específica, las personas logran excelentes resultados en gran medida a través de prueba y error, cada vez tratando monótonamente de seleccionar los elementos de contexto correctos que realmente se necesitan en esta etapa de resolución de problemas, recopilando puntos de referencia para cada etapa, observando métricas, dividiendo conjuntos de datos en pruebas, validación, y así sucesivamente.
¿Qué opinas sobre "ingeniería de contexto"?

Andrej Karpathy25 jun 2025
+1 para "ingeniería de contexto" sobre "ingeniería de avisos".
Las personas asocian las indicaciones con breves descripciones de tareas que le darías a un LLM en tu uso diario. En todas las aplicaciones de LLM de potencia industrial, la ingeniería de contexto es el delicado arte y la ciencia de llenar la ventana de contexto con la información adecuada para el siguiente paso. Ciencia porque hacer esto bien implica descripciones y explicaciones de tareas, pocos ejemplos de tomas, RAG, datos relacionados (posiblemente multimodales), herramientas, estado e historia, compactación... Demasiado poco o de la forma incorrecta y el LLM no tiene el contexto adecuado para un rendimiento óptimo. Demasiado o demasiado irrelevante y los costos de LLM podrían aumentar y el rendimiento podría disminuir. Hacer esto bien no es trivial. Y el arte por la intuición rectora en torno a la psicología de las personas y los espíritus.
Además de la ingeniería de contexto en sí, una aplicación LLM debe:
- Dividir los problemas en flujos de control
- Empaquetar las ventanas contextuales a la perfección
- Despachar llamadas a LLM del tipo y capacidad adecuados
- manejar flujos UIUX de verificación de generación
- mucho más: barandillas, seguridad, evaluaciones, paralelismo, precarga, ...
Por lo tanto, la ingeniería de contexto es solo una pequeña pieza de una gruesa capa emergente de software no trivial que coordina las llamadas individuales de LLM (y mucho más) en aplicaciones de LLM completas. El término "envoltorio de ChatGPT" está gastado y muy, muy equivocado.
365
Ayer pusimos en producción un nuevo producto: I.R.I.S. (Integrity & Risk Intelligence Scanner), el primer agente de IA en X (antes Twitter) que:
• Acepta un repositorio de contrato inteligente o la dirección de un contrato implementado
• Ejecuta el código a través de nuestra plataforma SaaS AuditAgent, que ya es una solución líder en el mercado utilizada por auditores externos y equipos de desarrollo
• Publica un informe completo de vulnerabilidad sin salir de las redes sociales
¿Por qué?
• Un canal libre de fricción. Los desarrolladores reciben una auditoría en la que ya están hablando de código, sin formularios, sin hilos de correo electrónico.
• AuditAgent bajo el capó. No es solo un "motor de escaneo", sino nuestro servicio insignia que impulsa las auditorías del mundo real.
• Información en ~30 minutos. Triaje perfecto antes de una revisión manual profunda.
• Impulso de la salida al mercado. El agente de Twitter muestra la fuerza de AuditAgent y canaliza a los usuarios a la plataforma completa.
Primeras 16 horas en la línea de tiempo
✨ 2,7 M impresiones
🔥 49 K compromisos
📊 85 % sentimiento positivo (214 tweets)
🛠️ ≈150 tweets compartiendo casos de uso práctico
🔍 33 auditorías exprés
📋 38 454 líneas de código escaneadas
⚠️ 377 vulnerabilidades detectadas
Un apunte personal
Hace exactamente un año me uní a Nethermind con lo que parecía una hipótesis arriesgada: "La IA se convertirá en una parte esencial de la seguridad de los contratos inteligentes, pero solo las herramientas especializadas y nativas del flujo de trabajo ayudarán realmente a los profesionales".
Doce meses después, tenemos dos productos en producción, AuditAgent ( y ahora I.R.I.S. (@UndercoverIRIS) - y un claro impacto en la seguridad de Web3.
Muchas gracias a todo el equipo de @NethermindEth AI y a @virtuals_io. Persistencia + una hipótesis sólida + experiencia combinada = resultados que la industria puede ver.
Seguiremos creando herramientas que aporten seguridad a los desarrolladores en primer lugar, para que la Web3 sea más segura con cada compromiso.

733
Acabo de regresar de AI Summit en Londres, y el panorama de la IA empresarial se ve muy diferente de cerca
3 cosas que me impactaron:
1️⃣ Estanterías de productos abarrotadas.
Cada stand prometía una "plataforma de IA" plug-and-play que se adapta mágicamente a cualquier pila. Pero si caminas por el piso el tiempo suficiente, sigues escuchando el mismo obstáculo: sistemas heredados sin API, datos dispersos, lógica empresarial poco clara. La realidad será brutal para un SaaS de talla única.
2️⃣ Las tiendas de fabricación a medida brillan silenciosamente.
Las agencias que combinan la consultoría de dominio profunda con el desarrollo personalizado rápido tienen una ventaja clara. Pueden caer en el medio desordenado, unir las cosas y enviar algo que realmente se ejecute dentro de la frágil infraestructura de un cliente.
3️⃣ El trabajo a medida es cada vez más barato, no más caro.
Con modelos de generación de código que escriben adaptadores, pruebas y andamios, los desarrolladores sénior ahora organizan en lugar de escribir a mano. Nuestra experiencia en el uso continuado de herramientas de IA dentro de la organización no hace más que confirmarlo.
La comida para llevar
Los ganadores en IA empresarial no serán los agentes "listos para usar" más llamativos, sino los equipos ágiles que pueden co-crear soluciones en tiempo real, guiados por las limitaciones desordenadas de la tecnología heredada.

262
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas