Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análise independente de modelos de IA e provedores de hospedagem - escolha o melhor modelo e provedor de API para seu caso de uso
A Cerebras tem demonstrado a sua capacidade de hospedar grandes MoEs a velocidades muito altas esta semana, lançando os endpoints Qwen3 235B 2507 e Qwen3 Coder 480B a >1.500 tokens de saída/s
➤ @CerebrasSystems agora oferece endpoints para ambos Qwen3 235B 2507 Raciocínio & Não-raciocínio. Ambos os modelos têm 235B de parâmetros totais com 22B ativos.
➤ O Qwen 3 235B 2507 Raciocínio oferece inteligência comparável ao o4-mini (alto) & DeepSeek R1 0528. A variante Não-raciocínio oferece inteligência comparável ao Kimi K2 e bem acima do GPT-4.1 e Llama 4 Maverick.
➤ O Qwen3 Coder 480B tem 480B de parâmetros totais com 35B ativos. Este modelo é particularmente forte para codificação agentiva e pode ser usado em uma variedade de ferramentas de agentes de codificação, incluindo o Qwen3-Coder CLI.
Os lançamentos da Cerebras representam a primeira vez que este nível de inteligência tem estado acessível a estas velocidades de saída e têm o potencial de desbloquear novos casos de uso - como usar um modelo de raciocínio para cada passo de um agente sem ter que esperar minutos.

23,61K
🇰🇷 A LG lançou recentemente o EXAONE 4.0 32B - ele obteve 62 no Índice de Análise de Inteligência Artificial, a maior pontuação para um modelo 32B até agora.
O EXAONE 4.0 da @LG_AI_Research é lançado em duas variantes: o modelo híbrido de raciocínio 32B, para o qual estamos reportando resultados de benchmark aqui, e um modelo menor de 1.2B projetado para aplicações em dispositivo que ainda não avaliamos.
Juntamente com o recente lançamento do Solar Pro 2 da Upstage, é emocionante ver laboratórios de IA coreanos se juntarem aos EUA e à China perto do topo das tabelas de inteligência.
Resultados principais:
➤ 🧠 EXAONE 4.0 32B (Raciocínio): Em modo de raciocínio, o EXAONE 4.0 obteve 62 no Índice de Análise de Inteligência Artificial. Isso iguala o Claude 4 Opus e o novo Llama Nemotron Super 49B v1.5 da NVIDIA, e está apenas 1 ponto atrás do Gemini 2.5 Flash.
➤ ⚡ EXAONE 4.0 32B (Não-Raciocínio): Em modo não-raciocínio, o EXAONE 4.0 obteve 51 no Índice de Análise de Inteligência Artificial. Ele iguala o Llama 4 Maverick em inteligência, apesar de ter apenas ~1/4 dos parâmetros totais (embora tenha ~2x os parâmetros ativos).
➤ ⚙️ Tokens de saída e verbosidade: Em modo de raciocínio, o EXAONE 4.0 usou 100M de tokens de saída para o Índice de Análise de Inteligência Artificial. Isso é mais alto do que alguns outros modelos de fronteira, mas alinha-se com as tendências recentes de modelos de raciocínio usando mais tokens de saída para 'pensar mais' - semelhante ao Llama Nemotron Super 49B v1.5, Grok 4 e Qwen3 235B 2507 Raciocínio. Em modo não-raciocínio, o EXAONE 4.0 usou 15M de tokens - alto para um não-raciocinador, mas não tão alto quanto os 30M do Kimi K2.
Detalhes principais:
➤ Raciocínio híbrido: O modelo oferece opcionalidade entre o modo 'raciocínio' e o modo 'não-raciocínio'.
➤ Disponibilidade: Hospedado atualmente pela @friendliai, e com preços competitivos (especialmente em comparação com opções proprietárias) pela FriendliAI a $1 por 1M de tokens de entrada e saída.
➤ Pesos abertos: O EXAONE 4.0 é um modelo de pesos abertos disponível sob o Acordo de Licença do Modelo de IA EXAONE 1.2. A licença limita o uso comercial.
➤ Multimodalidade: Entrada e saída apenas em texto.
➤ Janela de contexto: 131k tokens.
➤ Parâmetros: 32B de parâmetros ativos e totais, disponíveis em precisão de 16 bits e 8 bits (o que significa que o modelo pode ser executado em um único chip H100 em precisão total).

41,34K
Anunciando o Quadro de Líderes da Arena de Análise Musical Artificial: com mais de 5 mil votos, o Suno v4.5 é o modelo de Geração Musical líder, seguido pelo FUZZ-1.1 Pro da Riffusion.
O Lyria 2 do Google ocupa o terceiro lugar no nosso quadro de Instrumentos, e o v1.5 Allegro da Udio ocupa o terceiro lugar no nosso quadro de Vocais.
O Quadro de Líderes Instrumentais é o seguinte:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Stable Audio 2.0
@metaai MusicGen
As classificações são baseadas em votos da comunidade em uma ampla gama de géneros e prompts. Quer ver o seu prompt destacado? Você pode enviar prompts na arena hoje.
👇 Veja abaixo o Quadro de Líderes de Vocais e o link para participar!

21,95K
Mudança na demanda do modelo de 2024 para 2025: Google (+49pts), DeepSeek (+53pts) e xAI (+31pts) alcançaram ganhos massivos na participação de demanda ao longo do último ano
@Google passou de ser um atrasado em IA para um líder em IA, com um aumento de ~2,5x na proporção de entrevistados que usam ou consideram a série de modelos Gemini. Um fator chave para isso foi o Google ter feito ganhos significativos em inteligência: o Gemini 2.5 Pro agora ocupa a posição #3 no nosso Índice de Inteligência de Análise Artificial, em comparação com a posição significativamente atrasada da OpenAI e Anthropic no início de 2024.
@deepseek_ai no primeiro semestre de 2024 havia lançado apenas o DeepSeek 67B, um modelo que teve adoção limitada e teve desempenho inferior ao Llama 3 70B. O DeepSeek viu uma certa adoção no final de 2024 com os lançamentos do seu modelo V2, e então viu uma rápida adoção no início de 2025 com seus modelos V3 e R1, que os levaram à liderança entre os modelos de pesos abertos.
@xai lançou seu primeiro modelo Grok-1 no meio do primeiro semestre de 2024 e desde então subiu rapidamente à liderança em inteligência em todos os modelos com lançamentos sucessivos, culminando no lançamento da semana passada do Grok 4.
Fonte: Pesquisa de Adoção de IA da Análise Artificial H1 2025 (relatório disponível no site da Análise Artificial)

388,83K
Provedores Kimi K2: A Groq está a fornecer Kimi K2 a >400 tokens de saída/s, 40X mais rápido do que a API de primeira linha da Moonshot.
Parabéns a vários provedores por serem rápidos a lançar APIs para Kimi K2, incluindo @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra e, claro, @Kimi_Moonshot. Isso é impressionante considerando o tamanho do modelo com 1 trilhão de parâmetros no total.
A Groq destaca-se pela velocidade impressionante. A DeepInfra, Novita e Baseten destacam-se pelos seus preços, sendo os únicos provedores a cobrar de forma semelhante ou mais barata do que a API de primeira linha da Moonshot.
Veja abaixo mais comparações entre os provedores. Esperamos aumentos rápidos na velocidade entre alguns provedores à medida que as equipas otimizam para o modelo K2 - nossos números abaixo mostram velocidades medianas das últimas 72 horas, mas já estamos a ver a DeepInfra subir para 62 tokens/s nas medições de hoje.

52,05K
Enquanto o Kimi k2 da Moonshot AI é o modelo não-raciocínio de pesos abertos líder no Índice de Inteligência de Análise Artificial, ele gera ~3x mais tokens do que outros modelos não-raciocínio, borrando as linhas entre raciocínio e não-raciocínio.
Kimi k2 é o maior modelo de pesos abertos até agora - 1T de parâmetros totais com 32B ativos (isso requer uma enorme memória de 1TB em FP8 nativo para armazenar os pesos). Temos o k2 na posição 57 no Índice de Inteligência de Análise Artificial, uma pontuação impressionante que o coloca acima de modelos como GPT-4.1 e DeepSeek V3, mas atrás dos modelos de raciocínio líderes.
Até agora, havia uma clara distinção entre modelos de raciocínio e modelos não-raciocínio em nossas avaliações - definida não apenas por se o modelo usa tags <reasoning>, mas principalmente pelo uso de tokens. O número mediano de tokens usados para responder a todas as avaliações no Índice de Inteligência de Análise Artificial é ~10x maior para modelos de raciocínio do que para modelos não-raciocínio.
O Kimi k2 da @Kimi_Moonshot usa ~3x o número de tokens que o modelo não-raciocínio mediano usa. Seu uso de tokens é apenas até 30% menor do que o Claude 4 Sonnet e Opus quando executados em seu modo de pensamento estendido de orçamento máximo, e é quase o triplo do uso de tokens de ambos Claude 4 Sonnet e Opus com o raciocínio desligado.
Portanto, recomendamos que o Kimi k2 seja comparado ao Claude 4 Sonnet e Opus em seus modos de pensamento estendido de orçamento máximo, e não às pontuações de não-raciocínio para os modelos Claude 4.
Kimi k2 está disponível na API de primeira parte da @Kimi_Moonshot, bem como na @FireworksAI_HQ, @togethercompute, @novita_labs e @parasail_io.
Veja abaixo e na Análise Artificial para mais análises 👇



60,39K
A nova API de Pesquisa Profunda da OpenAI custa até ~$30 por chamada de API! Esses novos endpoints da API de Pesquisa Profunda podem ser a nova forma mais rápida de gastar dinheiro.
Em nossas 10 consultas de teste de pesquisa profunda, gastamos $100 no o3 e $9,18 no o4-mini. Como os custos ficam tão altos? Preços elevados e milhões de tokens.
Esses endpoints são versões do o3 e o4-mini que foram treinadas por reforço para tarefas de pesquisa profunda. A disponibilidade via API permite que sejam usados tanto com a ferramenta de busca da OpenAI quanto com fontes de dados personalizadas através de servidores MCP remotos.
o4-mini-deep-research tem um preço 5x mais baixo do que o o3-deep-research. Em nossas consultas de teste, o o4-mini também parece usar menos tokens - ele saiu mais de 10x mais barato no total em nossas 10 consultas de teste.
Preços:
➤ o3-deep-research é precificado em $10 /M de entrada ($2,50 de entrada em cache), $40 /M de saída
➤ o4-mini-deep-research é precificado em $2 /M de entrada ($0,5 de entrada em cache), $8 /M de saída
Esses endpoints são ambos substancialmente mais caros do que os endpoints padrão o3 e o4-mini da OpenAI - estes estão em:
➤ o3: $2 /M ($0,5 em cache) de entrada, $8 /M de saída para o3
➤ o4-mini: $1,1 /M (0,275 em cache) de entrada, $4,4 /M de saída

37,04K
A Black Forest Labs vai criar uma enxurrada de novas startups com o seu modelo de edição de imagem de pesos abertos lançado hoje
- A experiência de prova virtual vai melhorar 10X, mas isso é apenas o começo. Também veremos novas experiências à medida que as pessoas se tornam criativas com esses modelos (muito mais expansivos do que os filtros do Snapchat e Instagram)
- O modelo tem apenas 12B e pode ser ajustado em hardware de consumo
- Plataformas como @FAL oferecem suporte completo para treinamento LoRA
Créditos a @FAL pela imagem abaixo, eles têm uma ótima explicação sobre a sua oferta de ajuste fino (link abaixo)

34,13K
A edição de imagens agora é open source! O Black Forest Labs acaba de lançar um modelo de edição de imagens com pesos abertos, comparável em desempenho a modelos proprietários.
@bfl_ml lançou o FLUX.1 Kontext [dev], um modelo de edição de imagens de 12B. Recebemos acesso pré-lançamento e temos testado no nosso Arena de Análise de Imagens Artificial.
Verificamos de forma independente que ele oferece desempenho comparável ou superior a vários modelos proprietários, incluindo o Gemini 2.0 Flash do Google e o Bagel da ByteDance. O FLUX.1 Kontext [dev] só fica atrás dos próprios modelos proprietários do Black Forest Labs e do GPT-4o da OpenAI.
APIs hospedadas também estão disponíveis em @FAL, @replicate, @togethercompute.
Link abaixo para os pesos no HuggingFace 👐

24,58K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável