Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aran Komatsuzaki
Letar efter en medgrundare
Aran Komatsuzaki delade inlägget
I dag tar vi med agentfunktioner i AI-läge i Sök efter Google AI Ultra-prenumeranter. Men... Vad är egentligen annorlunda?
Låt oss säga att du vill boka bord för middag. Traditionellt skulle det kräva flera sökningar, samtidiga flikar och en hel del manuella jämförelser för att hitta en lämplig restaurang med tillgänglighet som fungerar med ditt schema. För att inte tala om att du måste hoppa igenom flera hinder för att slutligen göra din bokning.
Nu, med agentfunktioner i AI-läge, kan Search bläddra på flera webbplatser samtidigt för att hitta tillgänglighet i realtid för restauranger som uppfyller dina specifika behov (plats, kök, gruppstorlek, etc.) och sedan presentera dig med en kurerad lista med tillgängliga bokningstider. Slutligen kommer AI Mode att länka dig direkt till bokningssidan, så att du enkelt kan ta det sista steget och slutföra din bokning.
Prova det och låt oss veta vad du tycker!
64,34K
Brukade sitta hela dagen på min MacBook. Provade ett stående skrivbord - hatade det för att det inte rörde sig hela dagen.
Nu röstinmatning på en 8-tums surfplatta medan jag går runt i ett köpcentrum och utomhus och stannar på slumpmässiga platser. Känns som att gå tillbaka till den tid då människor tillbringade större delen av dagen med att gå och stå.
13,6K
Aran Komatsuzaki delade inlägget
Vi presenterar den tekniska rapporten GLM-4.5! 👇
Detta arbete visar hur vi utvecklade modeller som utmärker sig vid resonemang, kodning och agentiska uppgifter genom ett unikt träningsparadigm i flera steg.
Viktiga innovationer inkluderar expertmodelliteration med självdestillation för att förena kapaciteter, ett hybridresonemangsläge för dynamisk problemlösning och en svårighetsbaserad läroplan för förstärkningsinlärning.

142,6K
Aran Komatsuzaki delade inlägget
Tokenkrisen: löst. ✅
Vi förtränade diffusionsspråkmodeller (DLM) kontra autoregressiva (AR) modeller från grunden – upp till 8 B parametrar, 480 B tokens, 480 epoker.
Rön:
> DLM:er slår AR när tokens är begränsade, med >3 × datapotential.
> En 1B DLM tränad på bara 1 miljard tokens träffar 56 % HellaSwag och 33 % MMLU – inga tricks, inga cherry-picks.
> Ingen mättnad: fler upprepningar = fler vinster.
🚨 ”
Vi dissekerade också de allvarliga metodologiska bristerna i vårt parallella arbete "Diffusion Beats Autoregressive in Data-Constrained Settings" – låt oss höja ribban för öppen granskning!
🔗 Blogg och detaljer:
18 🧵s framåt:

376,61K
Jag hatar att bara Pro-användare kan använda äldre modeller som o3. Effektivt 10x prishöjning för en sådan grundläggande funktion.
Routing som inte fungerar bra ännu är helt okej, och det är inte poängen.
Jag hatar också att all din data är borta när du avslutar Team-nivån (Enterprise-nivån också?).
1,53K
Aran Komatsuzaki delade inlägget
🤔 Känner du att din AI snackar skit om dig? Det är inte bara du.
🚨 Vi kvantifierade maskinskit 💩
Det visar sig att om man anpassar LLM:er för att vara "hjälpsamma" via mänsklig feedback lär man dem faktiskt att snacka skit - och Chain-of-Thought-resonemang gör det bara värre!
🔥 Dags att tänka om när det gäller AI-anpassning.

147,49K
Aran Komatsuzaki delade inlägget
Vi presenterar Diff-Mamba! 🧠🔥
Differentiell design har visat sig minska överallokering av uppmärksamhet till irrelevant kontext i transformatorer, vilket förbättrar robustheten, ICL, hämtning och långkontextsfunktioner.
Kan det tillämpas effektivt på Mamba?
Svar i tråden🧵👇
14,55K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda