Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análise independente de modelos de IA e provedores de hospedagem - escolha o melhor modelo e provedor de API para seu caso de uso
O Alibaba lançou o Qwen3 Next 80B: um modelo de raciocínio híbrido de pesos abertos que alcança inteligência de nível DeepSeek V3.1 com apenas 3B de parâmetros ativos
Principais conclusões:
💡 Nova arquitetura: Primeiro modelo a apresentar os modelos de base 'Qwen3-Next' da @Alibaba_Qwen, com várias decisões importantes de arquitetura, como um mecanismo de atenção híbrido de Gated DeltaNet e Gated Attention, e alta dispersão com uma participação de parâmetros ativos de 3,8%, em comparação com 9,4% para Qwen3 235B
🧠 Inteligência: Qwen3 Next 80B (Raciocínio) pontua 54 no Índice de Inteligência de Análise Artificial, colocado ao lado do DeepSeek V3.1 (Raciocínio). A variante sem raciocínio pontua 45, de acordo com gpt-oss-20B e Llama Nemotron Super 49B v1.5 (Raciocínio)
💲 Modelo de preços: o preço por token no @alibaba_cloud é de US$ 0,5/US$ 6 por 1 milhão de tokens de entrada/saída para raciocínio e US$ 0,5/US$ 2 para a variante sem raciocínio. Isso se compara aos preços mais altos do Qwen3 235B 2507 de US$ 0,7/US$ 8,4 com raciocínio e US$ 0,7/US$ 2,8 sem - uma redução de ≥25% dependendo das cargas de trabalho
⚙️ Detalhes do modelo: o modelo tem uma janela de contexto nativa de 256 mil tokens e é somente texto, sem entradas ou saídas multimodais. Com apenas 80B parâmetros no FP8, o modelo se encaixa em uma única GPU H200

199
Lançando nossa pesquisa State of Generative Media 2025 apoiada pela @fal! Participe para receber o relatório completo da pesquisa e ganhar um par de Meta Ray-Bans 🕶️
Estamos conduzindo a pesquisa para coletar insights sobre o estado da mídia generativa em 2025. Isso inclui perspectivas sobre como as organizações estão usando, escolhendo e acessando os modelos de imagem, vídeo e música!
Por que participar?
✅ Receba uma cópia gratuita do relatório de pesquisa estendido (apenas uma versão limitada estará disponível publicamente)
✅ Uma chance de ganhar um par de óculos 🕶️ Ray-Ban Meta AI
✅ Contribua para compartilhar insights sobre as principais tendências que moldam a mídia generativa
Link no tópico abaixo! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
252
O DeepSeek lança a V3.1, unificando a V3 e a R1 em um modelo de raciocínio híbrido com um aumento incremental na inteligência
Aumento incremental da inteligência: Os resultados iniciais do benchmarking para o DeepSeek V3.1 mostram um Índice de Inteligência de Análise Artificial de 60 no modo de raciocínio, acima da pontuação de 59 do R1. No modo sem raciocínio, a V3.1 atinge uma pontuação de 49, um aumento maior em relação à pontuação anterior da V3 0324 de 44. Isso deixa a V3.1 (raciocínio) atrás do mais recente Qwen3 235B 2507 (raciocínio) do Alibaba - o DeepSeek não retomou a liderança.
Raciocínio híbrido: @deepseek_ai mudou para um modelo de raciocínio híbrido pela primeira vez - suportando os modos de raciocínio e não raciocínio. A mudança da DeepSeek para um modelo de raciocínio híbrido unificado imita a abordagem adotada pela OpenAI, Anthropic e Google. É interessante notar, no entanto, que o Alibaba abandonou recentemente a abordagem híbrida que eles preferiam para o Qwen3 com seus lançamentos separados de modelos de raciocínio e instrução do Qwen3 2507.
Chamada de função/uso da ferramenta: Embora o DeepSeek afirme ter melhorado a chamada de função para o modelo, o DeepSeek V3.1 não oferece suporte à chamada de função quando está no modo de raciocínio. É provável que isso limite substancialmente sua capacidade de oferecer suporte a fluxos de trabalho agenciais com requisitos de inteligência, inclusive em agentes de codificação.
Uso de token: o DeepSeek V3.1 tem uma pontuação cada vez mais alta no modo de raciocínio do que o DeepSeek R1 e usa um pouco menos de tokens nas avaliações que usamos para o Índice de Inteligência de Análise Artificial. No modo sem raciocínio, ele usa um pouco mais de tokens do que V3 0324 - mas ainda várias vezes menos do que em seu próprio modo de raciocínio.
API: A API primária do DeepSeek agora atende ao novo modelo DeepSeek V3.1 em seus endpoints de bate-papo e raciocínio - simplesmente alterando se o token de pensamento final </think> é fornecido ao modelo no modelo de bate-papo para controlar se o modelo raciocinará.
Arquitetura: O DeepSeek V3.1 é arquitetonicamente idêntico aos modelos V3 e R1 anteriores, com 671B de parâmetros totais e 37B de parâmetros ativos.
Implicações: Aconselhamos cautela ao fazer qualquer suposição sobre o que este lançamento implica sobre o progresso do DeepSeek em direção a um modelo futuro referido nos rumores como V4 ou R2. Observamos que a DeepSeek lançou anteriormente o modelo final construído em sua arquitetura V2 em 10 de dezembro de 2024, apenas duas semanas antes do lançamento da V3.


498
Melhores
Classificação
Favoritos