Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Criador do AuditAgent | AI x Crypto x Produto | Construindo a economia agentic
Por que é que a OpenAI lançou modelos com pesos abertos? Para matar o seu próprio negócio... (ou não?)
Sim, @OpenAI acabou de lançar dois modelos com pesos abertos, o que significa que os desenvolvedores podem usá-los sem pagar nada à OpenAI. Especificamente, foi lançado sob a licença comercial mais liberal, a Apache 2.0. Então, por que é que a OpenAI fez isso? Há vários aspectos.
Mas quero esclarecer que quando uma empresa lança um modelo com pesos abertos, isso não significa que o modelo é tão open-source quanto o código open-source que você pode executar por conta própria, como o sistema operativo @Linux. Não, com modelos de IA é um pouco diferente. Em particular, um modelo é uma caixa preta, um conjunto de pesos. E embora você possa testá-lo em diferentes tarefas e ver como funciona, se você não consegue reproduzir o processo de treinamento, nunca saberá se há alguma porta dos fundos ou vulnerabilidades de segurança que acabaram intencionalmente ou acidentalmente dentro deste modelo. Portanto, vamos separar isso do open source imediatamente. Infelizmente, modelos com pesos open source não podem ser totalmente confiáveis (embora possam ser baratos).
O outro aspecto que notei, mostrado na imagem, é que a qualidade dos modelos open-source não é muito diferente dos modelos de destaque da OpenAI que estão disponíveis apenas através da API. Isso é ótimo! Isso é inesperado! Você pensaria em quanto dinheiro a OpenAI poderia perder ao permitir que os desenvolvedores usassem seus modelos? No entanto, isso não é tudo. Modelos não são tudo o que você obtém ao usar a OpenAI através da API. Por exemplo, quando você usa o ChatGPT via UI e escolhe o modelo o3, na verdade há um agente complexo funcionando nos bastidores que, enquanto usa esses modelos, tem muita lógica escrita em cima para realmente funcionar bem com seus documentos e ferramentas. Você não tem acesso a eles através desses modelos que a OpenAI publicou.
Então, por que a OpenAI lançou modelos com pesos abertos? Primeiro, os seus principais concorrentes, particularmente @Meta, @MistralAI e @deepseek_ai (ah, e @Google), já lançaram modelos competitivos com pesos abertos que as pessoas usam. E a popularidade da OpenAI entre as pessoas que usam modelos abertos não está a crescer. No entanto, para os desenvolvedores que precisam tanto de modelos com pesos abertos (para cálculos locais/privados) quanto de modelos acessíveis via API (para coisas mais difíceis), se eles precisam de ambos, simplesmente não podem usar a OpenAI. É mais fácil para eles usar os seus concorrentes como o Google ou o DeepSeek.
Em segundo lugar, há uma pressão significativa tanto dos usuários quanto dos reguladores que querem mais abertura. As pessoas estão preocupadas que a IA possa sair do controle ou cair sob o controle de um grupo restrito de empresas no vale do silício, e as pessoas querem mais transparência. Embora eu ouse dizer que, mesmo apenas se preocupando com a concorrência e a queda nas vendas, tal movimento em direção à abertura provavelmente fará o negócio da OpenAI ainda maior.
E em terceiro lugar, claro, há a piada sobre o nome da empresa OpenAI. Judging pela forma como tudo se desenvolveu, a empresa chamada OpenAI era a empresa de IA mais fechada entre os líderes. Isso é engraçado por si só, mas agora isso mudou. O que você acha?

279
A maioria das pessoas não entende de todo como a substituição de pessoas por IA funciona (ou como NÃO funciona). Mesmo uma aceleração dez vezes maior de tudo o que um especialista faz não apaga automaticamente o trabalho em si—apenas reescreve a economia em torno dele. Quando o preço efetivo de um entregável despenca, a demanda latente que costumava ficar na prateleira de repente se torna viável. Nunca conheci um proprietário de produto que ache que seus engenheiros estão entregando mais funcionalidades do que o roadmap precisa; a lista de desejos é sempre mais longa do que o número de funcionários permite. Faça cada funcionalidade dez vezes mais barata de construir e você não corta equipes por um fator de dez—você ilumina cada "nice-to-have" que antes parecia inatingível, além de produtos inteiros em campo verde que ninguém se deu ao trabalho de escopar.
Um estudo recente da @Microsoft Research sobre o uso do Copilot no mundo real sublinha o mesmo ponto. Os usuários vêm em busca de ajuda para redigir código ou reunir fatos, mas o modelo acaba por orientar, aconselhar e ensinar—incorporando novos tipos de trabalho em uma única sessão. As profissões não são monólitos; são pacotes de subprocessos, cada um apenas parcialmente (e imperfeitamente) coberto pelos modelos de hoje. À medida que as ferramentas de IA evoluem, o escopo do papel evolui com elas, muitas vezes se expandindo em vez de encolhendo.
Mesmo em um auditor de contratos inteligentes de IA que construímos na @NethermindEth, apesar do nome, focamos em uma parte muito específica e estreita do processo: encontrar vulnerabilidades potenciais. Enquanto isso, especialistas em segurança usam isso como uma ferramenta e fazem um trabalho muito mais complexo e multifacetado—formulando estratégias, validando descobertas, corrigindo a IA, adicionando contexto implícito, comunicando-se com desenvolvedores, descobrindo intenções ocultas e gerenciando expectativas.
Portanto, em vez de contabilizar quais empregos "desaparecerão", é mais útil perguntar quais problemas se tornam dignos de serem resolvidos uma vez que o custo marginal de resolvê-los despenca. A história sugere que a resposta é "muito mais do que podemos contratar", e isso defende um futuro onde o talento é realocado e multiplicado, não tornado obsoleto.


312
Andrej Karpathy apoia a introdução de um novo termo relacionado a "engenharia de contexto" no desenvolvimento de software de IA usando LLMs.
E este termo há muito pareceu muito necessário. Sempre que explico às pessoas como desenvolvemos nosso Nethermind AuditAgent, um dos aspectos-chave, além de usar expertise de domínio (segurança web3) e utilizar os melhores modelos de IA disponíveis (da OpenAI, Anthropic e Google), e ferramentas para LLM, é precisamente "engenharia de contexto".
Às vezes há uma expressão "o contexto é o rei", e isso realmente é verdade. LLMs, sejam eles enormes e avançados ou pequenos LLMs otimizados, são uma ferramenta poderosa, mas como qualquer ferramenta, se estiver nas mãos erradas, você obterá resultados muito menos promissores do que poderia se trabalhasse com eles corretamente. E a gestão (ou engenharia) de contexto é, de fato, uma área complexa e não muito bem descrita que está em constante evolução, e realmente surgiu como uma extensão do conceito de engenharia de prompt, que já possui algumas conotações negativas.
No geral, Andrej listou os principais aspectos relacionados à engenharia de contexto (na segunda captura de tela), mas em cada tarefa específica, as pessoas alcançam resultados excelentes em grande parte através de tentativa e erro, cada vez tentando monótonamente selecionar os elementos de contexto certos que são realmente necessários nesta fase de resolução de problemas, coletando benchmarks para cada etapa, observando métricas, dividindo conjuntos de dados em teste, validação, e assim por diante.
O que você acha de "engenharia de contexto"?

Andrej Karpathy25/06/2025
+1 para "engenharia de contexto" em vez de "engenharia de prompt".
As pessoas associam prompts a descrições curtas de tarefas que você daria a um LLM no seu uso diário. Quando, em cada aplicativo LLM de força industrial, a engenharia de contexto é a delicada arte e ciência de preencher a janela de contexto com as informações certas para o próximo passo. Ciência porque fazer isso corretamente envolve descrições de tarefas e explicações, exemplos de poucos disparos, RAG, dados relacionados (possivelmente multimodais), ferramentas, estado e histórico, compactação... Muito pouco ou na forma errada e o LLM não tem o contexto certo para um desempenho ótimo. Muito ou irrelevante demais e os custos do LLM podem aumentar e o desempenho pode cair. Fazer isso bem é altamente não trivial. E arte por causa da intuição orientadora em torno da psicologia do LLM e do espírito das pessoas.
Além da própria engenharia de contexto, um aplicativo LLM tem que:
- dividir problemas da maneira certa em fluxos de controle
- empacotar as janelas de contexto da maneira certa
- despachar chamadas para LLMs do tipo e capacidade corretos
- lidar com fluxos de UIUX de geração-verificação
- muito mais - barreiras de proteção, segurança, avaliações, paralelismo, pré-busca, ...
Portanto, a engenharia de contexto é apenas uma pequena parte de uma camada emergente espessa de software não trivial que coordena chamadas individuais de LLM (e muito mais) em aplicativos LLM completos. O termo "wrapper do ChatGPT" está cansado e realmente, realmente errado.
369
Ontem, lançámos um novo produto em produção—I.R.I.S. (Integrity & Risk Intelligence Scanner), o primeiro agente de IA no X (anteriormente Twitter) que:
• Aceita um repositório de smart contracts ou o endereço de um contrato implantado
• Executa o código através da nossa plataforma SaaS AuditAgent—já uma solução líder de mercado utilizada por auditores externos e equipas de desenvolvimento
• Publica um relatório completo de vulnerabilidades sem sair do feed social
Por quê?
• Um canal sem fricções. Os desenvolvedores obtêm uma auditoria onde já estão a falar sobre código—sem formulários, sem threads de e-mail.
• AuditAgent por trás. Não é apenas um "motor de escaneamento", mas o nosso serviço principal que alimenta auditorias do mundo real.
• Insights em ~30 minutos. Triagem perfeita antes de uma revisão manual profunda.
• Impulso para o mercado. O agente do Twitter demonstra a força do AuditAgent e direciona os utilizadores para a plataforma completa.
Primeiras 16 horas na linha do tempo
✨ 2,7 M impressões
🔥 49 K interações
📊 85 % de sentimento positivo (214 tweets)
🛠️ ≈150 tweets a partilhar casos de uso práticos
🔍 33 auditorias expressas
📋 38 454 linhas de código escaneadas
⚠️ 377 vulnerabilidades detectadas
Uma nota pessoal
Exatamente um ano atrás, juntei-me à Nethermind com o que parecia uma hipótese arriscada: "A IA se tornará uma parte essencial da segurança de smart contracts, mas apenas ferramentas especializadas e nativas de fluxo de trabalho realmente ajudarão os profissionais."
Doze meses depois, temos dois produtos em produção—AuditAgent (e agora I.R.I.S.(@UndercoverIRIS))—e um impacto claro na segurança do Web3.
Um enorme agradecimento a toda a equipa de IA da @NethermindEth e à @virtuals_io. Persistência + uma hipótese sólida + expertise combinada = resultados que a indústria pode ver.
Continuaremos a construir ferramentas que trazem segurança aos desenvolvedores primeiro—para que o Web3 se torne mais seguro a cada commit.

737
Acabei de voltar da AI Summit London—e a paisagem do Enterprise-AI parece muito diferente de perto
3 coisas que me impactaram:
1️⃣ Prateleiras de produtos superlotadas.
Cada estande prometia uma "plataforma de IA" plug-and-play que se encaixa magicamente em qualquer stack. Mas, se você andar pelo espaço o suficiente, continuará ouvindo o mesmo bloqueio: sistemas legados sem APIs, dados dispersos, lógica de negócios pouco clara. A realidade será brutal para SaaS que se encaixam em todos os tamanhos.
2️⃣ Lojas de construção personalizada brilham silenciosamente.
Agências que combinam consultoria profunda em domínio com desenvolvimento personalizado rápido têm uma clara vantagem. Elas podem entrar no meio bagunçado, costurar as coisas e entregar algo que realmente funcione dentro da infraestrutura frágil de um cliente.
3️⃣ O trabalho personalizado está ficando mais barato, não mais caro.
Com modelos de geração de código escrevendo adaptadores, testes e andaimes, desenvolvedores seniores agora orquestram em vez de digitar manualmente. Nossa experiência de usar continuamente ferramentas de IA dentro da organização apenas confirma isso.
A lição
Os vencedores em Enterprise AI não serão os agentes mais chamativos "prontos para uso"—serão as equipes ágeis que podem co-criar soluções em tempo real, guiadas pelas restrições bagunçadas da tecnologia legada.

266
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável