Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Tipo / Curva / HVM / INets / λCálculo
sí, ningún modelo en el mundo se acerca a esto
me voy a dormir, estoy 100% seguro de que tengo razón en mi juicio
como siempre, esto pronto será sentido común, pero yo lo dije primero (:
nos vemos

TaelinHace 47 minutos
Oh, acabo de notar que la solución de GPT-5 es idéntica a la mía
Esto es increíble
4,5K
Nah, todos están equivocados, GPT-5 es un gran avance
Estoy 100% decidido aquí
No quería publicar demasiado rápido y arrepentirme de nuevo, pero acaba de resolver un montón de prompts de depuración muy, muy difíciles que anteriormente no habían sido resueltos (por IA), y luego diseñó un hermoso juego de Gameboy pixelado con un nivel de detalle y calidad que claramente está más allá de cualquier otra cosa que haya visto.
No hay forma de que este modelo sea malo.
Creo que todos ustedes están traumatizados por los benchmaxxers y están sobrecompensando contra un modelo que en realidad es bueno. También creo que están subestimando las fortalezas de gpt-oss (pero sí, mi última publicación fue apresurada)
Aún no sé si es utilizable para programación seria (o3 no lo era), pero parece que sí? Un modelo de codificación tan confiable como Opus, pero más inteligente que o3, cambiaría completamente mi flujo de trabajo. Sin embargo, Opus no necesita pensar para ser genial, así que eso podría contar a su favor.
Por lo que vale, solo he utilizado realmente 3 modelos:
- Opus 4.1 para codificación
- Gemini 2.5 muy raramente para codificación cuando Opus falla
- o3 para todo menos codificación
22,83K
Nah, todos están equivocados, GPT-5 es un gran avance
Estoy 100% decidido aquí
No quería publicar demasiado rápido y arrepentirme de nuevo, pero acaba de resolver un montón de prompts de depuración muy, muy difíciles que anteriormente no habían sido resueltos (por IA), y luego diseñó un hermoso juego de Gameboy pixelado con un nivel de detalle y calidad que claramente está más allá de cualquier otra cosa que haya visto.
No hay forma de que este modelo sea malo.
Creo que todos ustedes están traumatizados por los benchmaxxers, y están sobrecompensando contra un modelo que en realidad es muy bueno. También creo que están subestimando las fortalezas de gpt-oss (pero sí, mi última publicación fue apresurada)
Aún no sé si es utilizable para programación seria, aunque (4o, o3 definitivamente no lo eran), pero parece que sí? Un modelo de codificación tan confiable como Opus, pero más inteligente que o3, cambiaría completamente mi flujo de trabajo. Sin embargo, Opus no necesita pensar para ser genial, así que eso podría jugar a su favor.
Por lo que vale, solo he utilizado realmente 3 modelos:
- Opus 4.1 para codificación
- Gemini 2.5 muy raramente para codificación cuando Opus falla
- o3 para todo menos codificación
468
"prevenir la muerte es altamente poco ético"

João Pedro de Magalhães6 ago, 06:41
"Es altamente poco ético detener el envejecimiento" - revisor comentando sobre una de mis solicitudes de subvención.
La subvención se centró en la rejuvenecimiento celular, sin mención a curar el envejecimiento, pero muestra que aún tenemos un largo camino por recorrer para convencer incluso a los propios científicos de que curar el envejecimiento es deseable.
16,07K
prevenir la muerte es altamente poco ético

João Pedro de Magalhães6 ago, 06:41
"Es altamente poco ético detener el envejecimiento" - revisor comentando sobre una de mis solicitudes de subvención.
La subvención se centró en la rejuvenecimiento celular, sin mención a curar el envejecimiento, pero muestra que aún tenemos un largo camino por recorrer para convencer incluso a los propios científicos de que curar el envejecimiento es deseable.
241
¿Entonces gpt-oss 120B no puede producir un alemán correcto, pero resuelve errores complejos de Haskell que incluso Opus no pudo identificar?
¿Cómo es posible que eso suceda?
Estoy genuinamente tan confundido por todo esto.

Björn Plüster6 ago, 04:45
gpt-oss 120B es muy claramente incapaz de producir texto alemán lingüísticamente correcto. 🧵
243
Mi impresión inicial sobre el modelo OSS de OpenAI está alineada con lo que anunciaron. Se siente más cercano a o3 que a otros modelos abiertos, excepto que es mucho más rápido y barato. Algunos proveedores lo ofrecen a 3000 tokens/s, lo cual es una locura. Definitivamente es más inteligente que Kimi K2, R1 y Qwen 3. Probé todos los modelos un poco y obtuve resultados muy decisivos a favor de OpenAI-OSS-120b.
Desafortunadamente, hay una cosa que estos modelos aún no pueden hacer: mi maldito trabajo. Así que, espero que ustedes se diviertan. Volveré a depurar la evaluación de λ-cálculo superpuesto 😭 nos vemos.
410,37K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado