Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análise independente de modelos de IA e provedores de hospedagem - escolha o melhor modelo e provedor de API para seu caso de uso
A Cerebras tem demonstrado sua capacidade de hospedar grandes MoEs em velocidades muito altas esta semana, lançando os endpoints Qwen3 235B 2507 e Qwen3 Coder 480B a > 1.500 tokens de saída / s
➤ @CerebrasSystems agora oferece endpoints para Qwen3 235B 2507 Raciocínio e Não Raciocínio. Ambos os modelos têm parâmetros totais de 235B com 22B ativos.
➤ Qwen 3 235B 2507 O raciocínio oferece inteligência comparável ao o4-mini (alto) e DeepSeek R1 0528. A variante sem raciocínio oferece inteligência comparável ao Kimi K2 e bem acima do GPT-4.1 e do Llama 4 Maverick.
➤ O codificador Qwen3 480B possui 480B de parâmetros totais com 35B ativos. Esse modelo é particularmente forte para codificação agêntica e pode ser usado em uma variedade de ferramentas de agente de codificação, incluindo a CLI do Qwen3-Coder.
Os lançamentos da Cerebras representam a primeira vez que esse nível de inteligência está acessível nessas velocidades de saída e têm o potencial de desbloquear novos casos de uso - como usar um modelo de raciocínio para cada etapa de um agente sem ter que esperar minutos.

23,6K
🇰🇷 A LG lançou recentemente o EXAONE 4.0 32B - ele pontua 62 no Índice de Inteligência de Análise Artificial, a pontuação mais alta para um modelo 32B até agora
O EXAONE 4.0 da @LG_AI_Research é lançado em duas variantes: o modelo de raciocínio híbrido 32B para o qual estamos relatando os resultados do benchmarking aqui e um modelo menor de 1,2B projetado para aplicativos no dispositivo que ainda não comparamos.
Juntamente com o recente lançamento do Solar Pro 2 da Upstage, é emocionante ver os laboratórios de IA coreanos se juntarem aos EUA e à China perto do topo das paradas de inteligência.
Principais resultados:
🧠 ➤ EXAONE 4.0 32B (Raciocínio): No modo de raciocínio, o EXAONE 4.0 pontua 62 no Índice de Inteligência de Análise Artificial. Isso corresponde ao Claude 4 Opus e ao novo Llama Nemotron Super 49B v1.5 da NVIDIA e fica apenas 1 ponto atrás do Gemini 2.5 Flash
⚡ ➤ EXAONE 4.0 32B (Não Raciocínio): No modo sem raciocínio, o EXAONE 4.0 pontua 51 no Índice de Inteligência de Análise Artificial. Ele corresponde a Llama 4 Maverick em inteligência, apesar de ter apenas ~ 1/4 dos parâmetros totais (embora tenha ~ 2x os parâmetros ativos)
⚙️ ➤ Tokens de saída e detalhamento: No modo de raciocínio, o EXAONE 4.0 usou 100 milhões de tokens de saída para o Índice de Inteligência de Análise Artificial. Isso é maior do que alguns outros modelos de fronteira, mas se alinha com as tendências recentes de modelos de raciocínio usando mais tokens de saída para 'pensar mais' - semelhante ao Llama Nemotron Super 49B v1.5, Grok 4 e Qwen3 235B 2507 Reasoning. No modo sem raciocínio, o EXAONE 4.0 usou 15 milhões de tokens - alto para um não raciocinador, mas não tão alto quanto os 30 milhões do Kimi K2.
Detalhes principais:
➤ Raciocínio híbrido: O modelo oferece opcionalidade entre o modo 'raciocínio' e o modo 'não raciocínio'
➤ Disponibilidade: Hospedado pela @friendliai atualmente e com preços competitivos (especialmente em comparação com opções proprietárias) pela FriendliAI a US$ 1 por 1 milhão de tokens de entrada e saída
➤ Pesos abertos: EXAONE 4.0 é um modelo de pesos abertos disponível sob o Contrato de Licença de Modelo EXAONE AI 1.2. A licença limita o uso comercial.
➤ Multimodalidade: entrada e saída somente texto
➤ Janela de contexto: 131k tokens
➤ Parâmetros: 32B parâmetros ativos e totais, disponíveis em precisão de 16 bits e 8 bits (significa que o modelo pode ser executado em um único chip H100 com precisão total)

41,34K
Anunciando a tabela de classificação da Artificial Analysis Music Arena: com >5 mil votos, o Suno v4.5 é o modelo líder de geração de música, seguido pelo FUZZ-1.1 Pro da Riffusion.
O Lyria 2 do Google ocupa o terceiro lugar em nossa tabela de classificação instrumental, e o Allegro v1.5 de Udio ocupa o terceiro lugar em nossa tabela de classificação de vocais.
A Tabela de Classificação Instrumental é a seguinte:
🥇 @SunoMusic V4.5
🥈 @riffusionai FUZZ-1.1 Pro
🥉 @GoogleDeepMind Lyria 2
@udiomusic v1.5 Allegro
@StabilityAI Áudio estável 2.0
@metaai MusicGen
As classificações são baseadas em votos da comunidade em uma ampla gama de gêneros e prompts. Quer ver seu prompt em destaque? Você pode enviar prompts na arena hoje.
👇 Veja abaixo a tabela de classificação de vocais e o link para participar!

21,95K
Mudança na demanda do modelo de 2024 a 2025: Google (+49pts), DeepSeek (+53pts) e xAI (+31pts) alcançaram ganhos maciços na participação da demanda no ano passado
@Google passou de um retardatário de IA para um líder de IA com um aumento de ~ 2,5 vezes na proporção de entrevistados usando ou considerando a série de modelos Gemini. Um dos principais impulsionadores disso foi o Google obter ganhos significativos em inteligência: o Gemini 2.5 Pro agora está em #3 em nosso Índice de Inteligência de Análise Artificial, em comparação com um atraso significativo em relação ao OpenAI e ao Anthropic no início de 2024.
@deepseek_ai no 1º semestre de 2024 lançaram apenas o DeepSeek 67B, um modelo que teve adoção limitada e desempenho inferior ao Llama 3 70B. A DeepSeek viu pela primeira vez alguma aceitação no final de 2024 com os lançamentos de seu modelo V2 e, em seguida, viu uma rápida adoção no início de 2025 com seus modelos V3 e R1 que os levaram à liderança entre os modelos de pesos abertos.
A @xai lançou seu primeiro modelo Grok-1 em meados do H1 2024 e, desde então, subiu rapidamente para a liderança de inteligência em todos os modelos com lançamentos sucessivos, culminando no lançamento do Grok 4 na semana passada.
Fonte: Pesquisa de Adoção de IA de Análise Artificial H1 2025 (relatório disponível no site de Análise Artificial)

388,82K
Provedores Kimi K2: Groq está servindo Kimi K2 a >400 tokens de saída / s, 40 vezes mais rápido que a API primária do Moonshot
Parabéns a vários provedores por serem rápidos no lançamento de APIs para Kimi K2, incluindo @GroqInc, @basetenco, @togethercompute, @FireworksAI_HQ, @parasail_io, @novita_labs, @DeepInfra e, claro, @Kimi_Moonshot. Isso é impressionante, considerando o tamanho do modelo em 1 trilhão de parâmetros totais.
Groq se destaca por sua velocidade extremamente rápida. DeepInfra, Novita e Baseten se destacam por seus preços, sendo os únicos provedores com preços semelhantes ou mais baratos do que a API primária do Moonshot.
Veja abaixo mais comparações entre os provedores. Esperamos aumentos rápidos na velocidade em alguns provedores à medida que as equipes otimizam para o modelo K2 - nossos números abaixo mostram velocidades médias nas últimas 72 horas, mas já estamos vendo o DeepInfra saltar para 62 tokens/s nas medições de hoje

52,05K
Embora o Kimi k2 da Moonshot AI seja o principal modelo de não raciocínio de pesos abertos no Índice de Inteligência de Análise Artificial, ele produz ~ 3x mais tokens do que outros modelos de não raciocínio, borrando as linhas entre raciocínio e não raciocínio
Kimi k2 é o maior modelo de pesos abertos até agora - parâmetros totais de 1T com 32B ativos (isso requer 1 TB de memória no FP8 nativo para manter os pesos). Temos k2 em 57 no Índice de Inteligência de Análise Artificial, uma pontuação impressionante que o coloca acima de modelos como GPT-4.1 e DeepSeek V3, mas atrás dos principais modelos de raciocínio.
Até agora, havia uma distinção clara entre modelos de raciocínio e modelos não racionais em nossas avaliações - definida não apenas pelo fato de o modelo usar <reasoning> tags, mas principalmente pelo uso de tokens. O número médio de tokens usados para responder a todas as avaliações no Índice de Inteligência de Análise Artificial é ~ 10 vezes maior para modelos de raciocínio do que para modelos sem raciocínio.
O Kimi k2 do @Kimi_Moonshot usa ~ 3x o número de tokens que o modelo mediano de não raciocínio usa. Seu uso de token é apenas até 30% menor do que Claude 4 Sonnet e Opus quando executado em seu modo de pensamento estendido de orçamento máximo, e é quase o triplo do uso de token de Claude 4 Sonnet e Opus com o raciocínio desativado.
Portanto, recomendamos que Kimi k2 seja comparado a Claude 4 Sonnet e Opus em seus modos de pensamento estendido de orçamento máximo, não às pontuações de não raciocínio para os modelos Claude 4.
O Kimi k2 está disponível na API primária do @Kimi_Moonshot, bem como no @FireworksAI_HQ, @togethercompute, @novita_labs e @parasail_io.
Veja abaixo e em Análise Artificial para análise 👇 adicional



60,39K
A nova API Deep Research da OpenAI custa até ~ $ 30 por chamada de API! Esses novos endpoints da API Deep Research podem ser apenas a nova maneira mais rápida de gastar dinheiro
Em nossas 10 consultas de teste de pesquisa profunda, gastamos US$ 100 no o3 e US$ 9,18 no o4-mini. Como os custos ficam tão grandes? Preços altos e milhões de tokens.
Esses endpoints são versões do o3 e o4-mini que foram RL'd para tarefas de pesquisa profunda. A disponibilidade via API permite que eles sejam usados com a ferramenta de pesquisa na web da OpenAI e fontes de dados personalizadas por meio de servidores MCP remotos.
O preço do O4-Mini-Deep-Research é 5x menor do que o preço do O3-Deep-Research. Em nossas consultas de teste, o o4-mini também parece usar menos tokens - ele é mais de 10x mais barato no total em nossas 10 consultas de teste.
Precificação:
➤ o3-deep-research custa US$ 10/M de entrada (US$ 2,50 de entrada em cache), US$ 40/M de saída
➤ o4-mini-deep-research custa US$ 2/M de entrada (US$ 0,5 de entrada em cache), US$ 8/M de saída
Esses endpoints são substancialmente mais caros do que os endpoints o3 e o4-mini padrão da OpenAI - eles estão em:
➤ o3: entrada de US$ 2/M (US$ 0,5 em cache), saída de US$ 8/M para o3
➤ o4-mini: entrada de US$ 1,1 /M (0,275 em cache), saída de US$ 4,4/M

37,04K
A Black Forest Labs vai criar uma enxurrada de novas startups com seu modelo de edição de imagens de pesos abertos lançado hoje
- O teste virtual ficará 10 vezes melhor, mas isso é apenas o começo. Também veremos novas experiências à medida que as pessoas forem criativas com esses modelos (muito mais expansivos do que os filtros do Snapchat e Instagram)
- O modelo é apenas 12B e pode ser ajustado em hardware de consumo
- Plataformas como @FAL oferecem suporte completo de treinamento LoRA
Crédito para @FAL pela imagem abaixo, eles têm um ótimo artigo sobre sua oferta de ajuste fino (link abaixo)

34,13K
A edição de imagens agora é de código aberto! A Black Forest Labs acaba de lançar um modelo de edição de imagem de pesos abertos comparável em desempenho aos modelos proprietários
@bfl_ml lançou o FLUX.1 Kontext [dev], um modelo de edição de imagem 12B. Recebemos acesso de pré-lançamento e o testamos em nossa Arena de Imagens de Análise Artificial.
Verificamos de forma independente que ele oferece desempenho comparável ou superior a vários modelos proprietários, incluindo o Gemini 2.0 Flash do Google e o Bagel da ByteDance. FLUX.1 Kontext [dev] segue apenas os próprios modelos proprietários da Black Forest Labs e o GPT-4o da OpenAI.
As APIs hospedadas também estão disponíveis no @FAL , @replicate @togethercompute
Link abaixo para os pesos no HuggingFace 👐

24,57K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável