Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Mener des recherches à @PrimeIntellect
samsja a reposté
présentation d'Ariana - l'IDE collaboratif et agentique basé sur Claude Code
- gérez les tâches avec votre équipe
- attribuez-les à plusieurs agents de codage avec leur propre machine et branche
- révisez avec votre équipe
- les agents fusionnent pour vous
commentez "Mieux vaut tard que jamais" pour obtenir une version bientôt
5,27K
exécutant une charge de travail sur torchtitan avec la configuration par défaut, 23 % de mfu, modifiez un peu la configuration, activez la compilation et le flex, augmentez un peu la taille du lot --> 58 % de mfu.
Je souhaite que nous ayons des performances par défaut plus élevées dans l'écosystème torch.
10,48K
l'objectif de @PrimeIntellect est le même, ils ne seront simplement pas centralisés ni collocés.

Elon Musk23 juil., 01:04
L'objectif de @xAI est d'atteindre 50 millions d'unités de calcul AI équivalent H100 (mais avec une efficacité énergétique bien meilleure) en ligne dans les 5 ans.
2,81K
La démocratisation de l'accès à l'informatique est l'une des missions principales de @PrimeIntellect.

Alexil y a 17 heures
Le fait qu'un sous-marché se soit développé, rempli de prêteurs sur gage de GPU revendant la fin de ces contrats à long terme, résume bien la situation. Ils sont conçus pour bénéficier davantage au fournisseur qu'au consommateur.
4,58K
Open AI sera rappelé comme l'une des entreprises les plus inspirantes de tous les temps.

Noam Brown19 juil., 15:52
Aujourd'hui, nous chez @OpenAI avons atteint un jalon que beaucoup considéraient comme étant à des années : une performance de niveau médaille d'or au 2025 IMO avec un LLM de raisonnement général—dans les mêmes limites de temps que les humains, sans outils. Aussi remarquable que cela puisse paraître, c'est encore plus significatif que le titre 🧵
8,4K
Je ne vois pas l'intérêt de définir la taille de lot au niveau de chaque GPU dans le code. Cela signifie qu'il faut changer manuellement le paramètre de taille de lot lors de l'augmentation ou de la réduction de l'expérience.
Je suppose que cela a été fait historiquement dans des bases de code qui n'ont pas d'accumulation de gradients ?
1,63K
samsja a reposté
Si vous êtes à l'ICML et intéressé par l'inférence vérifiable, n'oubliez pas de passer voir notre affiche !
Nous présenterons TOPLOC, une méthode de hachage d'activation efficace qui fonctionne dans une variété de contextes, par exemple, en changeant les configurations d'inférence ou même les modèles.
16 juillet, 16h30, E-1106
1,43K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables