Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Gefeliciteerd aan het @Alibaba_Qwen team met Qwen3-TTS! 🎉
vLLM-Omni is klaar met day-0 ondersteuning – stemklonen, stemontwerp en natuurlijke taalcontrole voor emotie & prosodie, allemaal native draaiend.
Offline inferentie nu beschikbaar via PR #895, online service komt binnenkort.
🔗


Qwen22 jan, 21:16
Qwen3-TTS is officieel live. We hebben de volledige familie open-source gemaakt—VoiceDesign, CustomVoice en Base—en brengen hoge kwaliteit naar de open gemeenschap.
- 5 modellen (0.6B & 1.8B)
- Vrije stemontwerp & klonen
- Ondersteuning voor 10 talen
- SOTA 12Hz tokenizer voor hoge compressie
- Volledige fine-tuning ondersteuning
- SOTA prestaties
We geloven dat dit misschien wel de meest disruptieve release in open-source TTS tot nu toe is. Ga je gang, breek het en bouw iets cools. 🚀 Alles is nu beschikbaar—gewichten, code en paper. Geniet ervan. 🧵
Github:
Hugging Face:
ModelScope:
Blog:
Paper:
Hugging Face Demo:
ModelScope Demo:
API:

59
Day-0 ondersteuning voor GLM-4.7-Flash is nu beschikbaar in vLLM! 🚀
Een nieuwe standaard voor de 30B klasse—efficiënt, lichtgewicht en krachtig voor codering & agents.
Ook geweldig voor creatief schrijven, vertaling en taken met lange context.
PR:


Z.ai19 jan, 22:44
Introductie van GLM-4.7-Flash: Jouw lokale coderings- en agent-assistent.
GLM-4.7-Flash stelt een nieuwe standaard voor de 30B-klasse en balanceert hoge prestaties met efficiëntie, waardoor het de perfecte lichte implementatieoptie is. Naast coderen wordt het ook aanbevolen voor creatief schrijven, vertaling, taken met lange context en rollenspellen.
Gewichten:
API:
- GLM-4.7-Flash: Gratis (1 gelijktijdigheid)
- GLM-4.7-FlashX: Hoge snelheid en betaalbaar

68
Toen we ondersteuning voor gpt-oss toevoegden, had de Responses API geen standaard en hebben we in wezen het protocol omgekeerd ontworpen door te itereren en te raden op basis van het gedrag. We zijn erg enthousiast over de Open Responses specificatie: schone primitieve elementen, betere tools, consistentie voor de overwinning!

OpenAI Developers16 jan, 02:08
Vandaag kondigen we Open Responses aan: een open-source specificatie voor het bouwen van multi-provider, interoperabele LLM-interfaces bovenop de originele OpenAI Responses API.
✅ Multi-provider standaard
✅ Nuttig voor workflows in de echte wereld
✅ Uitbreidbaar zonder fragmentatie
Bouw agentische systemen zonder je stack voor elk model opnieuw te schrijven:
99
Boven
Positie
Favorieten
