Templar SN3 ⚔️ hat gerade etwas getan, von dem niemand vor einem Jahr dachte, dass es möglich wäre. Das 72B-Parameter-Modell wurde durch seine letzte Glühphase end-to-end auf der dezentralen Bittensor-Infrastruktur, die mit $TAO betrieben wird, geschoben. Dies ist ein Training auf Grenzskala mit Llama 70B lev., vollständig genehmigungsfrei. Labore haben 🔥 Milliarden für ähnliche Durchläufe verbrannt. Dashboard: - Modellgröße: 72B - Seit dem 12. September in Betrieb - Letzte Glühphase: 143B Tokens verarbeitet - Durchsatz: 200K tps - BPBV 2.1.19 - Validierungsverlust sinkt stetig (bits/byte-Kurve zerdrückt) @tplr_ai hat das Fundament gebaut. @gradients_ai hat es verfeinert. Offen für alle, die beitreten und verbessern. Größere Modelle kommen schnell. Dezentrale Superintelligenz wird aufgebaut. Die meisten denken, große Modelle = große Labore. $TAO ändert das. Öffne die Intelligenz und sieh zu, wie die Menschheit gedeiht. @tplr_ai macht es großartig....