Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meituan LongCat
🚀 Scalare le embedding, non solo esperti—introducendo un nuovo percorso per LLM efficienti.
Risultato chiave: In scenari ad alta scarsità, le embedding N-gram offrono una migliore frontiera di Pareto rispetto all'aggiunta di più esperti MoE.
Pertanto, introduciamo LongCat-Flash-Lite—il primo modello open source costruito su questa intuizione.
⚙️ 68.5B Parametri Totali (37.13B non-embedding) | 2.9B~4.5B Attivi
📊 Alte Prestazioni: SWE-Bench 54.4 | τ²-Bench 72.8 | TerminalBench 33.75
📃 Finestra di Contesto 256K (alimentata da YARN)
✨ Ottimizzato per Agentic/Coding, forte nel ragionamento generale
⚡ ~700 token/s velocità di inferenza di picco
Il risultato: Raggiunge prestazioni competitive all'interno della sua scala a un costo e una latenza significativamente inferiori.
Hugging Face:
Rapporto Tecnico:



24
🚀 Rapporto Tecnico LongCat-Flash-Thinking-2601 – Ora Completamente Rilasciato!
Principali intuizioni:
🌍 RL agentico su larga scala (14 pagine di approfondimenti!)
🔹 Scalabilità dell'ambiente: Uno sguardo dettagliato al nostro pipeline automatizzato che costruisce oltre 10.000 ambienti eseguibili e verificabili in oltre 20 domini.
🔹 Infrastruttura RL: Un framework DORA aggiornato che supporta l'addestramento asincrono con oltre 32.000 ambienti concorrenti, affrontando problemi di stabilità in compiti a lungo termine e altamente eterogenei.
🛡️ Robustezza nel mondo reale
🔹 Iniezione di rumore: Niente più agenti "greenhouse". Analizziamo sistematicamente il rumore del mondo reale (rumore utente/strumento) e lo iniettiamo direttamente nel ciclo di addestramento.
🔹 RL curricolare: Una strategia basata su curriculum che indurisce gradualmente il modello contro ambienti disordinati e imperfetti.
🧠 Framework Heavy Thinking
🔹 Ragionamento parallelo: Espande la larghezza generando più traiettorie di ragionamento indipendenti.
🔹 Sintesi iterativa: Espande la profondità utilizzando un modello di sintesi per riflettere e sintetizzare traiettorie parallele prima di prendere decisioni finali.
🔹 Memoria contestuale: Un modulo di memoria progettato appositamente per mantenere il ragionamento coerente su orizzonti lunghi.
⚡ Attenzione Zigzag
🔹 Design di connettività Zigzag che combina MLA + SSA per ridurre il calcolo mantenendo il flusso di informazioni globale.
🔹 Passaggio a varianti sparse a metà addestramento produce un'accelerazione di 1,5× e supporta contesti di 1M-token — ponendo le basi per futuri progressi nel ragionamento agentico a lungo termine.
🔹 Esplora:
📊 Raggiunge SOTA tra
modelli open-source attraverso i principali benchmark agentici: ricerca, utilizzo di strumenti, ragionamento matematico e codifica.
Se desideri ulteriori dettagli, sentiti libero di controllare il rapporto tecnico completo.
• Documento:
• Sito web:
• GitHub:
• Hugging Face:




7
🚀 Presentiamo LongCat-Flash-Thinking-2601 — Una versione costruita per un pensiero profondo e generale agentico.
✨ Punti salienti:
🤖 Capacità di Agente di Alto Livello
🔹 Prestazioni: Risultati di benchmark di alto livello (TIR / Ricerca Agentica / Uso di Strumenti Agentici); straordinaria capacità di generalizzazione, superando Claude in compiti complessi e casuali
🔹 Scalabilità Ambientale: Molti ambienti di alta qualità costruiti automaticamente; grafo di dipendenza denso
🔹 RL Multi-Ambiente: DORA estesa (la nostra infrastruttura RL), che supporta l'addestramento agentico multi-ambiente su larga scala
🛡️ Robustezza nel Mondo Reale
🔹 Prestazioni: Prestazioni solide in scenari disordinati e incerti (Vita-Noise & Tau^2-Noise)
🔹 Analisi del Rumore: Analizzato sistematicamente il rumore del mondo reale in scenari agentici
🔹 Curriculum RL: Aumento del tipo e dell'intensità del rumore durante l'addestramento
🎯 Modalità di Pensiero Intenso
🔹 Pensiero Parallelo: Espande la larghezza tramite più percorsi di ragionamento indipendenti
🔹 Sintesi Iterativa: Migliora la profondità utilizzando un modello di sintesi per sintetizzare le uscite, supportando cicli di ragionamento iterativi
📅 Un'altra cosa: il contesto da 1M-token tramite Zigzag Attention arriverà presto.
🔍 Provalo ora:
✅ L'accesso API per questa versione è anche disponibile.
Hugging Face:
GitHub:


7
Principali
Ranking
Preferiti
