Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Condeno enérgicamente el duelo al Intelecto Principal, están haciendo exactamente lo correcto.
Entrenar modelos base chinos hasta el nivel de frontera es de hecho *más importante* ahora que aprender a preentrenar nuestras propias bases. Básicamente no me importa qué IP, Arcee y otros puedan formar de antemano, aunque tengo expectativas razonables de que pronto se pongan al día. La computación abunda en Occidente y ya vemos evidencia de suficiente experiencia previa en modelos más pequeños (estos dos + @ZyphraAI, @Dorialexander, @natolambert con Olmo...) en el espacio abierto occidental; Por lo que se sabe, escala. Pero eso es sobre todo de... Importancia geopolítica, de lo que podréis ejecutar en vuestros servidores patrióticos conectados a marcos agentes. No soy occidental ni chino, y contrariamente a lo que he dicho, esta dimensión no me importa de forma absoluta, es un asunto puramente instrumental. Consulta la biografía: la carrera no es entre EE.UU./Occidente y China, es entre humanos y AGIs frente a la centralización del poder simiano. Y el Intelecto Supremo está haciendo más que nadie para frenar el impulso centralizador.
Piensa y llora: HF está lleno de dones celestiales que somos demasiado ineptos para aprovechar, simplemente se pudren ahí hasta volverse obsoletos. Miles o millones de descargas y nada que mostrar. ¿Por qué Qwen está haciendo modelos anticuados, muy caros y densos similares a llamas en primer lugar? Principalmente porque a) Alibaba tiene un KPI de "descargas mensuales de HF" y b) los académicos y los pequeños laboratorios no saben cómo afinar las arquitecturas modernas. Aunque la infraestructura estuviera más madura y fuera menos técnicamente ngmi, ¿en qué la ajustarían? El punto álgido narrativo del ajuste fino de código abierto fue Nous-Hermes, y ese paradigma básicamente consistía en destilar GPT-4, filtrar según el "gusto" y criterios vagos, hacer SFT sobre una base sólida y esperar lo mejor. Ese ángulo de ataque fue despreciado de antemano por OpenAI y compañía como un callejón sin salida amenazante que recompensa las alucinaciones y la imitación de estilo, y previsiblemente se desvaneció. ¿Y ahora qué, «RL»? ¿Qué RL, cómo RL, qué es el generador de señales, cómo se cruza con las tareas posteriores? Kimi-K2, una base impecable a nivel fronterizo, ha estado disponible para todos durante muchos meses. DeepSeek-V3, casi un año. V2, más de un año. Docenas de modelos de todos los tamaños, actualizados periódicamente con contexto más largo y otras bendiciones. ¿Y qué hemos construido con todo eso?
¿Hay algo que siquiera se acerque a las enseñanzas internas chinas, y mucho menos a la frontera contemporánea? ¿Hola? ¿Puedes indicarme estos derivados? Es una profanación completa de la idea de la ciencia abierta. Y ni siquiera los chinos se molestan, todos entrenan sus propios modelos desde cero. Se me ocurren unas pocas excepciones (por ejemplo, Rednote fabricando DSV3-VL), pero ninguna causó gran impacto. Las startups valoradas en miles de millones, cuyo foso es la codificación de búsqueda o agente y, por tanto, grandes conjuntos de datos post-entrenamiento, usan sigilosamente DS/GLM/Qwen en sus productos propietarios, pero no comparten la alfa. Es decir... al respecto.
Entra en escena el Intelecto Primario. Están resolviendo entrenamientos. Están resolviendo la generación del entorno. Piensan de manera principiada sobre las señales que moldean la cognición general del modelo. Están, en efecto, desbloqueando el inmenso depósito de valor inerte que se había acumulado. Para el mundo, esto es mucho más que otro modelo de yo también. Son increíblemente inteligentes, tienen buenas intenciones, una hoja de ruta sólida y son mis amigos. No voy a tolerar menospreciar su trabajo, porque cumple con la Gran Tarea Común. Si no lo ves, no tienes ni idea de lo que realmente importa en esta etapa.
Populares
Ranking
Favoritas

