Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI at Meta
Sammen med AI-fellesskapet flytter vi grensene for hva som er mulig gjennom åpen vitenskap for å skape en mer tilkoblet verden.
Meta FAIR ga nylig ut Seamless Interaction Dataset, det største kjente videodatasettet av høy kvalitet i sitt slag, med:
4,000+ forskjellige deltakere
4,000+ timer med opptak
65k+ interaksjoner
5,000+ kommenterte prøver
Dette datasettet med interaksjonsvideoer for hele kroppen, personlig, ansikt til ansikt representerer et avgjørende springbrett for å forstå og modellere hvordan folk kommuniserer og oppfører seg når de er sammen – og fremmer AIs evne til å generere mer naturlige samtaler og menneskelignende gester.
Last ned datasettet på @huggingface:
Finn ut mer om datasettet:
15,96K
Denne uken delte vi et AI-verktøy med åpen kildekode som vil bidra til å akselerere oppdagelsen av høyytelses, lavkarbonbetong. Se hele historien i tråden nedenfor.
Du kan også finne forskningsartefakter for dette prosjektet her:
1️⃣ Teknisk rapport med detaljer om modellen og optimaliseringsalgoritmen:
2️⃣ Åpen kildekode SustainableConcrete-depot med tilhørende data og kode

Engineering at Meta16. juli, 23:58
Vi er stolte av å dele at vi har utviklet et AI-verktøy med åpen kildekode for å designe betongblandinger som er sterkere, mer bærekraftige og raskere å distribuere. Verktøyet bruker Bayesiansk optimalisering med Metas BoTorch- og Ax-rammeverk, og ble bygget i samarbeid med @Amrize og @UofIllinois.
Les hele historien:

30,62K
🚀Nytt fra Meta FAIR: I dag introduserer vi sømløs interaksjon, et forskningsprosjekt dedikert til modellering av mellommenneskelig dynamikk.
Prosjektet har en familie av audiovisuelle atferdsmodeller, utviklet i samarbeid med Metas Codec Avatars lab + Core AI lab, som gjengir tale mellom to individer til mangfoldige, uttrykksfulle helkroppsbevegelser og aktiv lytteatferd, som gjør det mulig å lage fullt kroppslige avatarer i 2D og 3D.
Disse modellene har potensial til å skape mer naturlige, interaktive virtuelle agenter som kan engasjere seg i menneskelignende sosiale interaksjoner på tvers av en rekke miljøer.
Få mer informasjon:
32,88K
🚀Nytt fra Meta FAIR: I dag introduserer vi sømløs interaksjon, et forskningsprosjekt dedikert til modellering av mellommenneskelig dynamikk.
Prosjektet har en familie av audiovisuelle atferdsmodeller, utviklet i samarbeid med Metas Codec Avatars lab + Core AI lab, som gjengir tale mellom to individer til mangfoldige, uttrykksfulle helkroppsbevegelser og aktiv lytteatferd, som gjør det mulig å lage fullt kroppslige avatarer i 2D og 3D.
Disse modellene har potensial til å skape mer naturlige, interaktive virtuelle agenter som kan engasjere seg i menneskelignende sosiale interaksjoner på tvers av en rekke miljøer.
Få mer informasjon:
142
🚀Nytt fra Meta FAIR: I dag introduserer vi sømløs interaksjon, et forskningsprosjekt dedikert til modellering av mellommenneskelig dynamikk.
Prosjektet har en familie av audiovisuelle atferdsmodeller, utviklet i samarbeid med Metas Codec Avatars lab + Core AI lab, som gjengir tale mellom to individer til mangfoldige, uttrykksfulle helkroppsbevegelser og aktiv lytteatferd, som gjør det mulig å lage fullt kroppslige avatarer i 2D og 3D.
Disse modellene har potensial til å skape mer naturlige, interaktive virtuelle agenter som kan engasjere seg i menneskelignende sosiale interaksjoner på tvers av en rekke miljøer.
Få mer informasjon:
148
AI at Meta lagt ut på nytt
Lei av manuell justering? Se den siste Lama-veiledningen om hvordan du optimaliserer dine eksisterende GPT- eller andre LLM-forespørsler for Llama med 'llama-prompt-ops', Python-biblioteket med åpen kildekode!
I denne videoen demonstrerer partneringeniør Justin Lee installasjon, prosjektoppsett, migrering av din første forespørsel og analyse av ytelsesgevinster.
Se nå for å oppdage:
✨ Hvorfor systematisk rask optimalisering er avgjørende for å migrere fra GPT til Lama.
💻 En gjennomgang av «lama-prompt-ops» i sanntid for en klassifiseringsoppgave for kundeservice.
Se hele opplæringen her:
30,7K
AI at Meta lagt ut på nytt
Ta AI-utviklingsferdighetene dine til neste nivå med vårt nyeste kurs om «Building with Llama 4», undervist av @AndrewYNg og Amit Sangani, Director of Partner Engineering for Metas AI-team.
I dette omfattende kurset lærer du hvordan du utnytter kraften til Llama 4, som muliggjør distribusjon enklere enn før og oppnår mer avansert multimodal forståelse ved å spørre over flere bilder.
Du vil finne ut hvordan du kan:
- Bygg applikasjoner som resonnerer over visuelt innhold, oppdager objekter og svarer på spørsmål om bildejording med presisjon
- Forstå Llama 4-ledetekstformatet, spesielt de nye bilderelaterte tokenene
- Bruk lang kontekst for å behandle hele bøker og forskningsartikler uten å måtte dele opp dataene
- Optimaliser spørsmålene dine med optimaliseringsverktøyet for Lama-spørsmål
- Lag treningsdata av høy kvalitet med Llama Synthetic Data Kit
Med praktisk erfaring med å bruke Llama 4 gjennom Metas offisielle API og andre slutningsleverandører, vil du kunne bygge kraftigere applikasjoner.
Begynn å lære nå og lås opp det fulle potensialet til Llama 4!
22,9K
Responsen på vårt første Llama Startup Program noensinne var forbløffende, og etter å ha gjennomgått over 1,000 søknader er vi begeistret over å kunngjøre vår første gruppe.
Denne eklektiske gruppen av oppstartsbedrifter i tidlig fase er klare til å flytte grensene for hva som er mulig med Llama og drive innovasjon i GenAI-markedet. Vi vil tilby dem støtte med tilgang til Llamas tekniske team og skykredittrefusjoner for å kompensere for kostnadene ved å bygge med Llama.
Lær mer om Llama Startup Program:

20,32K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til