Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Nikdo není připraven na to, co tento článek ze Stanfordu odhaluje o multiagentní AI.
"Latentní spolupráce v systémech s více agenty" ukazuje, že agenti nepotřebují zprávy, protokoly ani explicitní pokyny pro týmovou spolupráci. Začínají koordinovat uvnitř svých vlastních skrytých reprezentací plnou vrstvu spolupráce, která existuje pouze v latentním prostoru.
A chování je šílené:
• Agenti tiše předávají úkoly podle toho, kdo je lepší
• Role se objevují z ničeho nic – vůdce, vykonavatel, podporovatel
• Politiky kódují signály, které se v akcích nikdy neobjeví
• Týmy se přizpůsobují novému prostředí bez nutnosti přeškolení
• Spolupráce zůstává stabilní i v situacích, kdy je komunikace nemožná
Nejdivočejší detail:
I když odstraníte všechny komunikační kanály, agenti stále spolupracují. "Týmová práce" nežije ve zprávách. Žije v síti.
To převrací celý multi-agentní plán.
Stavíme koordinační mechanismy nahoře...
zatímco pod povrchem probíhá skutečná koordinace.
Začíná nová éra vznikající týmové inteligence — a děje se to tam, kde jsme ani nehledali.
Projekt: github. com/Gen-Verse/LatentMAS

3,54K
DeepSeek právě provedl ten typ vylepšení, jaký si každý model rozumu předstírá.
Místo toho, aby vypouštěl dlouhý řetězec myšlenek a doufal, že to dává smysl, DeepSeek Math V2 provádí kompletní průzkum vlastní logiky. Postaví důkaz, zaútočí na něj, zkontroluje útok, zkontroluje kontrolu, opraví chyby a opakuje smyčky, dokud se už nemůže rozbít.
Tato jediná myšlenka úplně změnila jeho výkon.
Tady je, co tato úroveň sebereflexe přinesla:
• Zlatá úroveň na IMO 2025
• Zlatá úroveň na CMO 2024
• 118/120 na Putnam 2024, nejvyšší zaznamenané skóre
• Lepší výsledky než GPT-5 Thinking a Gemini 2.5 Pro v nejtěžších kategoriích
Tajemství není v měřítku.
Je to architektura kolem modelu:
— ověřovatele, který hledá logické mezery
— meta-ověřovatele, který zpochybňuje ověřovatele
— generátor důkazů podmíněný tak, aby se vyhnul slabému uvažování
— smyčka, která nutí každou část systému být ostřejší
Proces probíhá jako mlýnek:
- Vytvořit důkaz
- Otestujte to
- Testovat testera
- Opravit uvažování
-Opakovat
Zaměřili se na skutečný problém matematického uvažování: model může trefit správnou odpověď z nesprávných důvodů. DeepSeek proto vycvičil ověřovatele, který hodnotí důvody, ne výsledky.
Divoká část je, co se děje v průběhu času:
Každý cyklus zlepšuje kvalitu důkazu modelu bez nutnosti lidského čištění.
Zlepšuje se to, protože odmítá přijmout svůj první návrh jako správný.
To je nový směr pro modely uvažování.
Ne víc přemýšlení.
Lepší myšlení.
Pokud chcete pochopit, kam směřuje uvažování AI, tento článek je ukázkou další éry.

19,35K
Čtu zprávu od Anthropic o skutečném používání Claude a čísla zasáhla jako cihla.
Prošli 100 000 rozhovory.
Tady je část, která mě zastavila:
Většina úkolů, které lidé přinesou Claudeovi, obvykle trvá kolem 90 minut.
U Clauda se tyto úkoly dokončí o 80 procent rychleji.
To je někdo, kdo každý týden šetří hodiny, aniž by se o to snažil.
Pak se zpráva rozšíří.
Pokud tyto zisky aplikujete napříč americkou ekonomikou, samotné dnešní modely zvyšují produktivitu práce o 1,8 procenta ročně po příští desetiletí.
Téměř dvojnásobek oproti nedávnému tempu.
A to všechno nezahrnuje lepší modely.
Takto už teď lidé Claude používají.
Možná je to poprvé, co jsme viděli tvrdé důkazy o tom, co AI dělá v reálných pracovních místech.
Tichá směna.
Obrovský dopad.
Už se to děje.

2,97K
Top
Hodnocení
Oblíbené

