Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Hugging Face
Hugging Face delade inlägget
Vi har släppt vår LFM2-350M baserade TTS-modell som öppen källkod 🚀 Vi har också släppt många olika FT-modeller.
GPU-plattform: @hyperbolic_labs
Data: Emilia + Emilia Yodas(EN)
LLM-modell: LFM2-350M @LiquidAI_
Disk och utrymme: @huggingface
Jag är väldigt glad över att ha släppt den här modellen som öppen källkod. Stort tack till @VyvoSmartChain
#opensource #speech #tts #huggingface #lfm #gpu
29,25K
Hugging Face delade inlägget
🚨 Stora nyheter! Vi bestämde oss för att @huggingface:s bibliotek efter träning, TRL, kommer att ha inbyggt stöd för träning av synspråksmodeller 🖼️
Detta bygger på vårt senaste VLM-stöd i SFTTrainer – och vi slutar inte förrän TRL är #1 VLM-träningsbiblioteket 🥇
Mer här 👉
Stort tack till @mervenoyann, @SergioPaniego och @ariG23498 🔥

27,3K
270 miljoner (inte miljarder) parametrar! ⚡️⚡️⚡️

Omar Sanseviero15 aug. 00:04
Vi presenterar Gemma 3 270M 🔥
🤏En pytteliten modell! Bara 270 miljoner parametrar
🧠 Mycket stark instruktion följande
🤖 Finjustera på bara några minuter, med ett stort ordförråd som fungerar som en högkvalitativ grund

37,95K
Hugging Face delade inlägget
Vi presenterar DINOv3: en toppmodern modell för datorseende som tränats med självövervakad inlärning (SSL) och som ger kraftfulla, högupplösta bildfunktioner. För första gången överträffar ett enda fruset visionsnät specialiserade lösningar på flera långvariga täta förutsägelseuppgifter.
Läs mer om DINOv3 här:
192
Hugging Face delade inlägget
En mycket intressant datauppsättning för maträtter, om du bygger en hälsoapp/modell: 100 k noggrant utvalda matprover som spänner över hemlagade måltider, restaurangrätter, råvaror och förpackade produkter.
Hur den byggdes är lika värdefullt
• 50 000 riktiga användare på Binance fångade sina egna plattor och förkommenterade av professionella mänskliga annotatorer.
• Maskingenererade etiketter stickprovskontrollerades och förfinades sedan av Biance-användare för att garantera kvalitet.
• En del av datasetet som gjorts tillgängligt på Hugging Face under en OpenRail-licens.
Det låter som ett nytt tillvägagångssätt för crowdsourcing av datainsamling.
Länk nedan:

71,32K
Hugging Face delade inlägget
🚀Vi är glada över Hunyuan-GameCraft med öppen källkod, ett högdynamiskt ramverk för interaktiv spelvideogenerering som bygger på HunyuanVideo.
Den genererar spelbara och fysiskt realistiska videor från en enda scenbild och användaråtgärdssignaler, vilket ger kreatörer och utvecklare möjlighet att "regissera" spel med förstapersons- eller tredjepersonsperspektiv.
Viktiga fördelar:
🔹High Dynamics: Förenar standardtangentbordsingångar i ett delat kontinuerligt åtgärdsutrymme, vilket möjliggör kontroll med hög precision över hastighet och vinkel. Detta gör det möjligt att utforska komplexa banor och övervinna den stela, begränsade rörelsen hos traditionella modeller. Det kan också generera dynamiskt miljöinnehåll som rörliga moln, regn, snö och vattenflöde.
🔹Långsiktig konsekvens: Använder hybridhistorikvillkor för att bevara den ursprungliga sceninformationen efter betydande förflyttning.
🔹Betydande kostnadsminskning: Inget behov av dyr modellering/rendering. PCM-destillation komprimerar inferensstegen, ökar hastigheten och sänker kostnaderna. Detta gör att den kvantiserade 13B-modellen kan köras på GPU:er av konsumentkvalitet som RTX 4090.
Projektets sida:
Kod:
Teknisk rapport:
Krammande ansikte:
152,87K
Hugging Face delade inlägget
OpenAI gpt-oss 120B orkestrerar en hel video med hjälp av Hugging Face-utrymmen! 🤯
Allt, i en ENDA prompt:
skapa en bild av en labrador och använd den för att skapa en enkel video av den
🛠️ Verktyg som används:
1. Flux.1 Krea Dev av @bfl_ml
2. LTX snabbt med @Lightricks
Det är allt, gpt-oss 120B är en av de BÄSTA öppen källkodsmodellerna jag har använt för verktygsanrop hittills! Beröm @OpenAI 🤗
43,66K
Hugging Face delade inlägget
Vi presenterar qqWen: vårt projekt med helt öppen källkod (kod+vikter+data+detaljerad teknisk rapport) för fullstack-finjustering (pretrain+SFT+RL) en serie modeller (1.5b, 3b, 7b, 14b & 32b) för ett nischat finansiellt programmeringsspråk som heter Q
Alla detaljer nedan!


102,51K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda