Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Type / Pliage / HVM / INets / λCalcul
sérieusement les gars
GPT-5 n'est pas de l'AGI
il n'est même pas proche d'être de l'AGI
il ne va pas devenir de l'AGI
il a les mêmes défauts que tous les LLM
mais c'est un excellent modèle
peut-être le meilleur d'aujourd'hui
et, comme toujours, ce n'était que le premier jour et je pourrais me tromper
773
ouais, aucun modèle au monde ne s'approche de ça
je vais dormir, je suis sûr à 100% que j'ai raison dans mon jugement
comme toujours, cela deviendra bientôt du bon sens, mais je l'ai dit en premier (:
à bientôt

Taelinil y a 50 minutes
Oh, je viens de remarquer que la solution de GPT-5 est identique à la mienne
C'est incroyable
4,5K
Non, vous avez tous tort, GPT-5 est un bond en avant
Je parie 100 % ici
Je ne voulais pas poster trop vite et le regretter encore, mais il vient de résoudre une multitude de prompts de débogage très, très difficiles qui étaient auparavant non résolus (par l'IA), puis a conçu un magnifique jeu Gameboy pixelisé avec un niveau de détail et de qualité qui dépasse clairement tout ce que j'ai jamais vu.
Il n'y a aucune chance que ce modèle soit mauvais.
Je pense que vous êtes tous traumatisés par les benchmaxxers et que vous compensez trop contre un modèle qui est en réalité bon. Je pense aussi que vous sous-estimez les forces de gpt-oss (mais oui, mon dernier post était précipité)
Je ne sais toujours pas s'il est utilisable pour la programmation sérieuse cependant (o3 ne l'était pas), mais cela semble l'être ? Un modèle de codage aussi fiable qu'Opus, mais plus intelligent qu'o3, changerait complètement mon flux de travail. Opus n'a pas besoin de réflexion pour être génial, donc cela pourrait jouer en sa faveur.
Pour ce que ça vaut, je n'ai vraiment utilisé que 3 modèles :
- Opus 4.1 pour le codage
- Gemini 2.5 très rarement pour le codage quand Opus échoue
- o3 pour tout sauf le codage
22,83K
Non, vous avez tous tort, GPT-5 est un bond en avant
Je parie 100 % ici
Je ne voulais pas poster trop vite et le regretter encore, mais il vient de résoudre un tas de prompts de débogage très, très difficiles qui n'avaient auparavant pas été résolus (par l'IA), puis a conçu un magnifique jeu Gameboy pixelisé avec un niveau de détail et de qualité qui dépasse clairement tout ce que j'ai jamais vu.
Il n'y a aucune chance que ce modèle soit mauvais.
Je pense que vous êtes tous traumatisés par les benchmaxxers, et que vous compensez trop contre un modèle qui est en réalité très bon. Je pense aussi que vous sous-estimez les forces de gpt-oss (mais oui, mon dernier post était précipité)
Je ne sais toujours pas s'il est utilisable pour la programmation sérieuse cependant (4o, o3 n'étaient définitivement pas), mais ça a l'air d'être le cas ? Un modèle de codage aussi fiable qu'Opus, mais plus intelligent qu'o3, changerait complètement mon flux de travail. Opus n'a pas besoin de réflexion pour être génial cependant, donc cela pourrait jouer en sa faveur.
Pour ce que ça vaut, je n'ai vraiment utilisé que 3 modèles :
- Opus 4.1 pour le codage
- Gemini 2.5 très rarement pour le codage quand Opus échoue
- o3 pour tout sauf le codage
470
"prévenir la mort est hautement contraire à l'éthique"

João Pedro de Magalhães6 août, 06:41
"Il est très contraire à l'éthique d'arrêter le vieillissement" - un critique commentant l'une de mes demandes de subvention.
La subvention se concentrait sur le rajeunissement cellulaire, sans mentionner la guérison du vieillissement, mais cela montre que nous avons encore un long chemin à parcourir pour convaincre même nos collègues scientifiques que guérir le vieillissement est souhaitable.
16,07K
prévenir la mort est hautement contraire à l'éthique

João Pedro de Magalhães6 août, 06:41
"Il est très contraire à l'éthique d'arrêter le vieillissement" - un critique commentant l'une de mes demandes de subvention.
La subvention se concentrait sur le rajeunissement cellulaire, sans mentionner la guérison du vieillissement, mais cela montre que nous avons encore un long chemin à parcourir pour convaincre même nos collègues scientifiques que guérir le vieillissement est souhaitable.
243
Alors gpt-oss 120B ne peut pas produire un allemand correct, mais réussit à résoudre des bugs complexes en Haskell que même Opus n'a pas réussi à identifier ?
Comment cela se fait-il ?
Je suis vraiment tellement confus par tout ça.

Björn Plüster6 août, 04:45
gpt-oss 120B est très manifestement incapable de produire un texte allemand linguistiquement correct. 🧵
245
Mon impression initiale sur le modèle OSS d'OpenAI est en accord avec ce qu'ils ont annoncé. On a vraiment l'impression que c'est plus proche de o3 que des autres modèles ouverts, sauf que c'est beaucoup plus rapide et moins cher. Certains fournisseurs l'offrent à 3000 tokens/s, ce qui est fou. Il est définitivement plus intelligent que Kimi K2, R1 et Qwen 3. J'ai testé tous les modèles pendant un moment et j'ai obtenu des résultats très décisifs en faveur d'OpenAI-OSS-120b.
Malheureusement, il y a une chose que ces modèles ne peuvent pas encore faire - mon putain de travail. Donc, j'espère que vous vous amuserez. Je reviendrai pour déboguer l'évaluation du λ-calcul superposé 😭 à bientôt.
410,38K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables