Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Tekoälymallien ja isännöintipalveluntarjoajien riippumaton analyysi - valitse paras malli ja API-palveluntarjoaja käyttötapaukseesi
Alibaba on julkaissut Qwen3 Next 80B:n: avoimen painojen hybridipäättelymallin, joka saavuttaa DeepSeek V3.1 -tason älykkyyden vain 3B aktiivisilla parametreilla
Tärkeimmät huomiot:
💡 Uusi arkkitehtuuri: Ensimmäinen malli, joka esittelee @Alibaba_Qwen:n "Qwen3-Next"-perustusmallit, joissa on useita keskeisiä arkkitehtuuripäätöksiä, kuten Gated DeltaNetin ja Gated Attentionin hybridihuomiomekanismi, ja korkea harvaus 3,8 %:n aktiivisten parametrien osuudella, kun Qwen3 235B:n osuus on 9,4 %.
🧠 Älykkyys: Qwen3 Next 80B (päättely) saa 54 pistettä tekoälyanalyysin älykkyysindeksissä, joka sijoittuu DeepSeek V3.1:n (päättely) rinnalle. Ei-järkeilevä versio saa 45 pistettä gpt-oss-20B:n ja Llama Nemotron Super 49B v1.5:n mukaisesti (päättely)
💲 Hinnoittelumalli: Tokenin hinnoittelu @alibaba_cloud:ssä on 0,5 dollaria/6 dollaria 1 miljoonaa tulo-/lähtötokenia kohden päättelylle ja 0,5 dollaria/2 dollaria ei-päättelyvaihtoehdolle. Tätä verrataan Qwen3 235B 2507:n korkeampiin hintoihin, jotka olivat 0,7 dollaria/8,4 dollaria perusteluineen ja 0,7 dollaria/2,8 dollaria ilman - ≥25 prosentin alennus työmäärästä riippuen
⚙️ Mallin tiedot: Mallissa on 256 tuhannen tunnuksen alkuperäinen kontekstiikkuna, ja se on vain tekstiä sisältävä ilman multimodaalisia syötteitä tai lähtöjä. Vain 80 B:n parametreilla FP8:ssa malli sopii yhteen H200-grafiikkasuorittimeen

198
Generatiivisen median tila 2025 -kyselyn käynnistäminen @fal! Osallistu saadaksesi täydellisen kyselyraportin ja voittaaksesi pari Meta Ray-Bania 🕶️
Teemme kyselyn kerätäksemme näkemyksiä generatiivisen median tilasta vuonna 2025. Tämä sisältää näkökulmia siihen, miten organisaatiot käyttävät, valitsevat ja käyttävät kuva-, video- ja musiikkimalleja!
Miksi osallistua?
✅ Saat ilmaisen kopion laajennetusta kyselyraportista (vain rajoitettu versio on julkisesti saatavilla)
✅ Mahdollisuus voittaa Ray-Ban Meta AI -lasit 🕶️
✅ Osallistu näkemysten jakamiseen generatiivista mediaa muokkaavista tärkeimmistä trendeistä
Linkki alla olevaan ketjuun! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
251
DeepSeek lanseeraa V3.1:n, joka yhdistää V3:n ja R1:n hybridipäättelymalliksi, jossa älykkyys kasvaa asteittain
Inkrementaalinen älykkyyden lisäys: DeepSeek V3.1:n alustavat vertailutulokset osoittavat tekoälyn älykkyysindeksin olevan 60 päättelytilassa, kun R1:n pistemäärä oli 59. Ei-päättelytilassa V3.1 saavuttaa pistemäärän 49, mikä on suurempi lisäys aiempaan V3 0324 -pistemäärään 44. Tämä jättää V3.1:n (päättely) Alibaban uusimman Qwen3 235B 2507:n (perustelu) taakse - DeepSeek ei ole ottanut johtoasemaa takaisin.
Hybridipäättely: @deepseek_ai on siirtynyt ensimmäistä kertaa hybridipäättelymalliin, joka tukee sekä päättelyä että ei-päättelyä. DeepSeekin siirtyminen yhtenäiseen hybridipäättelymalliin jäljittelee OpenAI:n, Anthropicin ja Googlen lähestymistapaa. On kuitenkin mielenkiintoista huomata, että Alibaba hylkäsi äskettäin Qwen3:lle suosimansa hybridilähestymistavan erillisillä Qwen3 2507 -päättely- ja ohjemalleillaan.
Funktiokutsu / työkalun käyttö: Vaikka DeepSeek väittää mallin parannettua funktiokutsua, DeepSeek V3.1 ei tue funktiokutsuja päättelytilassa. Tämä todennäköisesti rajoittaa merkittävästi sen kykyä tukea agenttisia työnkulkuja älykkyysvaatimuksilla, myös koodausagenteissa.
Tokenin käyttö: DeepSeek V3.1 saa asteittain korkeammat pisteet päättelytilassa kuin DeepSeek R1, ja käyttää hieman vähemmän tokeneita Artificial Analysis Intelligence Indexissä käyttämissämme valeissa. Ei-päättelytilassa se käyttää hieman enemmän tokeneita kuin V3 0324 - mutta silti useita kertoja vähemmän kuin omassa päättelytilassaan.
API: DeepSeekin ensimmäisen osapuolen API palvelee nyt uutta DeepSeek V3.1 -mallia sekä chat- että päättelypäätepisteissään - yksinkertaisesti muuttamalla, annetaanko loppuajattelun </think> token mallille chat-mallissa, jotta voidaan hallita, järkeileekö malli.
Arkkitehtuuri: DeepSeek V3.1 on arkkitehtonisesti identtinen aiempien V3- ja R1-mallien kanssa, ja siinä on 671 miljardia kokonaisparametria ja 37 miljardia aktiivista parametria.
Seuraukset: Suosittelemme varovaisuuteen tehdessämme oletuksia siitä, mitä tämä julkaisu antaa ymmärtää DeepSeekin edistymisestä kohti tulevaa mallia, jota huhuissa kutsutaan nimellä V4 tai R2. Huomaamme, että DeepSeek julkaisi aiemmin lopullisen mallin, joka on rakennettu heidän V2-arkkitehtuuriinsa 10. joulukuuta 2024, vain kaksi viikkoa ennen V3:n julkaisua.


497
Johtavat
Rankkaus
Suosikit