Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Mistral AI
I vår fortsatte forpliktelse til åpen vitenskap gir vi ut Voxtral Technical Report:
Rapporten dekker detaljer om pre-training, post-training, alignment og evalueringer. Vi presenterer også analyse av valg av den optimale modellarkitekturen, hvilket forhåndsopplæringsformat som skal brukes, og fordelene med DPO.

26,51K
Mistral AI lagt ut på nytt
Opphev demping gjør en tekst-LLM til en stemme-AI. På , er det @MistralAI Mistral-Small-3.2-24B, noe som gjør den helt åpen kildekode. Spill et quizspill med en snerpete vert, få med deg tekniske nyheter, eller bare heng ut og snakk. Eller endre den for å gjøre hva du vil!
13,36K
Vi introduserer Mistral Small 3.2, en liten oppdatering til Mistral Small 3.1 for å forbedre:
- Instruksjon følgende: Small 3.2 er bedre til å følge nøyaktige instruksjoner
- Repetisjonsfeil: Liten 3.2 gir færre uendelige generasjoner eller repeterende svar
- Funksjonskalling: Small 3.2s funksjonskallsmal er mer robust



12,91K
Mistral AI lagt ut på nytt
I dag lanserer vi ether0, vår første vitenskapelige resonnementmodell.
Vi trente Mistral 24B med RL på flere molekylære designoppgaver innen kjemi. Bemerkelsesverdig nok fant vi ut at LLM-er kan lære noen vitenskapelige oppgaver mer dataeffektivt enn spesialiserte modeller trent fra bunnen av på de samme dataene, og kan overgå grensemodeller og mennesker på disse oppgavene. For minst en undergruppe av vitenskapelige klassifiserings-, regresjons- og generasjonsproblemer, kan LLM-er etter opplæring gi en mye mer dataeffektiv tilnærming enn tradisjonelle maskinlæringstilnærminger. 1/n
90,27K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til