Une chose que je vais aimer à propos de Thinking Machines par rapport à d'autres laboratoires de pointe, c'est ça, c'est sûr.
Même Meta ne fait pas ça, pour quelle raison ? Qui sait.
Chez Thinking Machines, notre travail inclut la collaboration avec la communauté de recherche au sens large. Aujourd'hui, nous sommes ravis de partager que nous construisons une équipe vLLM chez @thinkymachines pour faire avancer le vLLM open-source et servir les modèles de pointe. Si vous êtes intéressé, veuillez m'envoyer un message privé ou contacter @barret_zoph !
Voici quelques exemples de rôles / projets :
* Ingénieur en inférence distribuée pour soutenir les modèles à grande échelle sur les GPU Blackwell
* Ingénieur en optimisation de PyTorch et de modèles pour soutenir et optimiser les derniers modèles OSS
* Généraliste MLSys pour divers aspects du vLLM
Je n'aime pas l'état actuel de ce pays, pour être honnête.
Sommes-nous définitivement perdus ou pouvons-nous redevenir un endroit avec un peu de dignité et de tranquillité un jour ? 🤷♂️🫤