Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Tipo / Curva / HVM / INets / λCálculo
sí, ningún modelo en el mundo se acerca a esto
me voy a dormir, estoy 100% seguro de que tengo razón en mi juicio
como siempre, esto pronto será sentido común, pero yo lo dije primero (:
nos vemos

Taelinhace 32 minutos
Oh, acabo de notar que la solución de GPT-5 es idéntica a la mía
Esto es increíble
2.64K
Nah, todos están equivocados, GPT-5 es un gran avance
Estoy 100% decidido aquí
No quería publicar demasiado rápido y arrepentirme de nuevo, pero acaba de resolver un montón de prompts de depuración muy, muy difíciles que anteriormente no habían sido resueltos (por IA), y luego diseñó un hermoso juego de Gameboy pixelado con un nivel de detalle y calidad que claramente está más allá de cualquier otra cosa que haya visto.
No hay forma de que este modelo sea malo.
Creo que todos ustedes están traumatizados por los benchmaxxers y están sobrecompensando contra un modelo que en realidad es bueno. También creo que están subestimando las fortalezas de gpt-oss (pero sí, mi última publicación fue apresurada)
Aún no sé si es utilizable para programación seria, aunque (o3 no lo era), pero parece que sí? Un modelo de codificación tan confiable como Opus, pero más inteligente que o3, cambiaría completamente mi flujo de trabajo. Sin embargo, Opus no necesita pensar para ser genial, así que eso podría jugar a su favor.
Por lo que vale, realmente solo usé 3 modelos:
- Opus 4.1 para codificación
- Gemini 2.5 muy raramente para codificación cuando Opus falla
- o3 para todo menos codificación
22.82K
Nah, todos están equivocados, GPT-5 es un gran avance
Estoy 100% apostando aquí
No quería publicar demasiado rápido y arrepentirme de nuevo, pero acaba de resolver un montón de prompts de depuración muy, muy difíciles que anteriormente no habían sido resueltos (por IA), y luego diseñó un hermoso juego de Gameboy pixelado con un nivel de detalle y calidad que claramente está más allá de cualquier otra cosa que haya visto.
No hay forma de que este modelo sea malo.
Creo que todos ustedes están traumatizados por los benchmaxxers y están sobrecompensando contra un modelo que en realidad es muy bueno. También creo que están subestimando las fortalezas de gpt-oss (pero sí, mi última publicación fue apresurada)
Aún no sé si es utilizable para programación seria, aunque (4o, o3 definitivamente no lo eran), pero parece que sí? Un modelo de codificación tan confiable como Opus, pero más inteligente que o3, cambiaría completamente mi flujo de trabajo. Sin embargo, Opus no necesita pensar para ser genial, así que eso podría jugar a su favor.
Por lo que vale, realmente solo usé 3 modelos:
- Opus 4.1 para codificación
- Gemini 2.5 muy raramente para codificación cuando Opus falla
- o3 para todo menos codificación
458
"prevenir la muerte es altamente poco ético"

João Pedro de Magalhães6 ago, 06:41
"Es altamente poco ético detener el envejecimiento" - revisor comentando sobre una de mis solicitudes de subvención.
La subvención se centró en la rejuvenecimiento celular, sin mención a curar el envejecimiento, pero muestra que aún tenemos un largo camino por recorrer para convencer incluso a los propios científicos de que curar el envejecimiento es deseable.
16.06K
prevenir la muerte es altamente poco ético

João Pedro de Magalhães6 ago, 06:41
"Es altamente poco ético detener el envejecimiento" - revisor comentando sobre una de mis solicitudes de subvención.
La subvención se centró en la rejuvenecimiento celular, sin mención a curar el envejecimiento, pero muestra que aún tenemos un largo camino por recorrer para convencer incluso a los propios científicos de que curar el envejecimiento es deseable.
229
Entonces, ¿gpt-oss 120B no puede producir un alemán correcto, pero clava errores complejos de Haskell que incluso Opus no pudo identificar?
¿Cómo sucede eso?
Estoy realmente tan confundido por todo esto

Björn Plüster6 ago, 04:45
gpt-oss 120B es muy descaradamente incapaz de producir texto alemán lingüísticamente correcto. 🧵
233
Mi impresión inicial sobre el modelo OSS de OpenAI está alineada con lo que anunciaron. Se siente más cercano a o3 que a otros modelos abiertos, excepto que es mucho más rápido y barato. Algunos proveedores lo ofrecen a 3000 tokens/s, lo cual es una locura. Definitivamente es más inteligente que Kimi K2, R1 y Qwen 3. Probé todos los modelos un poco y obtuve resultados muy decisivos a favor de OpenAI-OSS-120b.
Desafortunadamente, hay una cosa que estos modelos aún no pueden hacer: mi maldito trabajo. Así que, espero que se diviertan. Volveré a depurar la evaluación de λ-cálculo superpuesto 😭 nos vemos.
410.36K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas