Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
Criador do AuditAgent | AI x Crypto x Produto | Construindo uma economia agêntica
Por que a OpenAI lançou modelos com pesos abertos? Para matar seu próprio negócio... (ou não?)
Sim, @OpenAI acabou de lançar dois modelos com pesos abertos, o que significa que os desenvolvedores podem usá-los sem pagar nada à OpenAI. Especificamente, ele é lançado sob a licença comercial Apache 2.0 mais liberal. Então, por que a OpenAI fez isso? Existem vários aspectos.
Mas, quero esclarecer que quando uma empresa lança um modelo com pesos abertos, isso não significa que o modelo seja tão de código aberto quanto o código-fonte aberto que você mesmo pode executar, como o sistema operacional @Linux. Não, com os modelos de IA é um pouco diferente. Em particular, um modelo é uma caixa preta, um conjunto de pesos. E embora você possa testá-lo em diferentes tarefas e ver como funciona, se você não conseguir reproduzir o processo de treinamento, nunca saberá se há algum backdoor ou vulnerabilidade de segurança que intencionalmente ou acidentalmente acabou dentro desse modelo. Então, vamos separar isso do código aberto imediatamente. Infelizmente, modelos com pesos de código aberto não podem ser totalmente confiáveis (eles podem ser chep).
O outro aspecto que notei, mostrado na imagem, é que a qualidade dos modelos de código aberto não é muito diferente dos modelos principais da OpenAI que estão disponíveis apenas por meio da API. Isso é ótimo! Isso é inesperado! Você pensaria quanto dinheiro a OpenAI poderia perder permitindo que os desenvolvedores usassem seus modelos? No entanto, isso não é tudo. Os modelos não são tudo o que você obtém ao usar o OpenAI por meio da API. Por exemplo, quando você usa o ChatGPT via interface do usuário e escolhe o modelo o3, na verdade há um agente complexo trabalhando nos bastidores que, ao usar esses modelos, tem muita lógica escrita em cima para realmente funcionar bem com seus documentos e ferramentas. Você não os acessa por meio desses modelos publicados pela OpenAI.
Então, por que a OpenAI lançou modelos com pesos abertos? Primeiro, seus principais concorrentes, principalmente @Meta, @MistralAI e @deepseek_ai (ah, e @Google), já lançaram modelos competitivos com pesos abertos que as pessoas usam. E a popularidade da OpenAI entre as pessoas que usam modelos abertos não está crescendo. No entanto, para desenvolvedores que precisam de ambos os modelos com pesos abertos (para cálculos locais/privados) juntamente com modelos acessíveis por API (para coisas mais difíceis), se precisarem de ambos, simplesmente não poderão usar o OpenAI. É mais fácil para eles usarem seus concorrentes como Google ou DeepSeek.
Em segundo lugar, há uma pressão significativa de usuários e reguladores que desejam mais abertura. As pessoas estão preocupadas que a IA possa ficar fora de controle ou cair sob o controle de um grupo restrito de empresas no Vale do Silício, e as pessoas querem mais transparência. Embora eu ouse dizer que, mesmo apenas me preocupando com a concorrência e o declínio das vendas, esse movimento em direção à abertura provavelmente tornará os negócios da OpenAI ainda maiores.
E terceiro, é claro, há a piada sobre o nome da empresa OpenAI. A julgar pela forma como tudo se desenvolveu, a empresa chamada OpenAI foi a empresa de IA mais fechada entre os líderes. Isso é engraçado por si só, mas agora isso mudou. O que você acha?

277
A maioria das pessoas não entende como funciona a substituição de pessoas por IA (ou como NÃO funciona). Mesmo uma aceleração de dez vezes de tudo o que um especialista faz não apaga automaticamente o trabalho em si – apenas reescreve a economia em torno dele. Quando o preço efetivo de uma entrega despenca, a demanda latente que costumava ficar na prateleira de repente se torna viável. Nunca conheci um proprietário de produto que pense que seus engenheiros estão enviando mais recursos do que o roteiro precisa; A lista de desejos é sempre mais longa do que o número de funcionários permite. Torne cada recurso dez vezes mais barato de construir e você não corta as equipes por um fator de dez - você ilumina todos os "bons de se ter" que antes pareciam inacessíveis, além de produtos greenfield inteiros que ninguém se preocupou em analisar.
Um estudo recente da @Microsoft Research sobre o uso do Copilot no mundo real destaca o mesmo ponto. Os usuários vêm para ajudar a redigir código ou coletar fatos, mas o modelo acaba treinando, aconselhando e ensinando - dobrando novos tipos de trabalho em uma única sessão. As profissões não são monólitos; eles são pacotes de subprocessos, cada um apenas parcialmente (e imperfeitamente) coberto pelos modelos de hoje. À medida que as ferramentas de IA evoluem, o escopo da função evolui com elas, muitas vezes expandindo em vez de diminuir.
Mesmo em um auditor de contrato inteligente de IA que construímos na @NethermindEth, apesar do nome, visamos uma parte estreita muito específica do processo: encontrar possíveis vulnerabilidades. Enquanto isso, os especialistas em segurança usam isso como uma ferramenta e fazem um trabalho muito mais complexo e multifacetado: formular estratégias, validar descobertas, corrigir a IA, adicionar contexto implícito, comunicar-se com desenvolvedores, descobrir intenções ocultas e gerenciar expectativas.
Então, em vez de contar quais empregos "desaparecerão", é mais útil perguntar quais problemas valem a pena resolver quando o custo marginal de resolvê-los cair de um penhasco. A história sugere que a resposta é "muito mais do que podemos prever", e isso defende um futuro em que o talento seja redistribuído e multiplicado, não se torne obsoleto.


310
Andrej Karpathy apoia a introdução de um novo termo relacionado à "engenharia de contexto" no desenvolvimento de software de IA usando LLMs.
E esse termo há muito parece muito necessário. Toda vez que explico para as pessoas como desenvolvemos nosso Nethermind AuditAgent, um dos principais aspectos, além de usar expertise de domínio (segurança web3) e usar os melhores modelos de IA disponíveis (da OpenAI, Anthropic e Google), e ferramentas para LLM, é justamente "engenharia de contexto".
Às vezes há uma expressão "o contexto é o rei", e isso realmente é verdade. Os LLMs, sejam grandes avançados ou pequenos LLMs otimizados, são uma ferramenta poderosa, mas, como qualquer ferramenta, se estiver nas mãos erradas, você obterá resultados muito menos promissores do que se trabalhasse com eles corretamente. E o gerenciamento de contexto (ou engenharia) é de fato uma área complexa e não muito bem descrita que está em constante evolução, e realmente surgiu como uma extensão do conceito de engenharia rápida, que já tem algumas conotações negativas.
No geral, Andrej listou os principais aspectos relacionados à engenharia de contexto (na segunda captura de tela), mas em cada tarefa específica, as pessoas alcançam excelentes resultados em grande parte por tentativa e erro, cada vez tentando monotonamente selecionar os elementos de contexto corretos que são realmente necessários neste estágio de resolução de problemas, coletando benchmarks para cada estágio, olhando para métricas, dividindo conjuntos de dados em teste, validação, e assim por diante, e assim por diante.
O que você acha da "engenharia de contexto"?

Andrej Karpathy25 de jun. de 2025
+1 para "engenharia de contexto" em vez de "engenharia rápida".
As pessoas associam prompts a descrições curtas de tarefas que você daria a um LLM em seu uso diário. Quando em todos os aplicativos LLM de força industrial, a engenharia de contexto é a delicada arte e ciência de preencher a janela de contexto com as informações certas para a próxima etapa. Ciência porque fazer isso direito envolve descrições e explicações de tarefas, poucos exemplos de tiros, RAG, dados relacionados (possivelmente multimodais), ferramentas, estado e histórico, compactação... Muito pouco ou da forma errada e o LLM não tem o contexto certo para um desempenho ideal. Muito ou muito irrelevante e os custos de LLM podem subir e o desempenho pode diminuir. Fazer isso bem é altamente não trivial. E arte por causa da intuição orientadora em torno da psicologia LLM dos espíritos das pessoas.
Além da engenharia de contexto em si, um aplicativo LLM precisa:
- dividir os problemas em fluxos de controle
- embale as janelas de contexto da maneira certa
- enviar chamadas para LLMs do tipo e capacidade certos
- lidar com fluxos UIUX de verificação de geração
- muito mais - proteções, segurança, avaliações, paralelismo, pré-busca, ...
Portanto, a engenharia de contexto é apenas uma pequena parte de uma camada espessa emergente de software não trivial que coordena chamadas LLM individuais (e muito mais) em aplicativos LLM completos. O termo "wrapper ChatGPT" está cansado e muito, muito errado.
367
Ontem, colocamos um novo produto em produção – I.R.I.S. (Integrity & Risk Intelligence Scanner), o primeiro agente de IA no X (antigo Twitter) que:
• Aceita um repositório de contrato inteligente ou o endereço de um contrato implantado
• Executa o código por meio de nossa plataforma SaaS AuditAgent, que já é uma solução líder de mercado usada por auditores externos e equipes de desenvolvimento
• Publica um relatório completo de vulnerabilidade sem sair do feed social
Por que?
• Um canal sem atrito. Os desenvolvedores recebem uma auditoria em que já estão falando sobre código - sem formulários, sem tópicos de e-mail.
• AuditAgent sob o capô. Não apenas um "mecanismo de varredura", mas nosso principal serviço que alimenta auditorias do mundo real.
• Insight em ~30 minutos. Triagem perfeita antes de uma revisão manual profunda.
• Impulso de entrada no mercado. O agente do Twitter mostra a força do AuditAgent e canaliza os usuários para toda a plataforma.
Primeiras 16 horas na linha do tempo
✨ 2,7 milhões de impressões
🔥 49 mil compromissos
📊 85% de sentimento positivo (214 tweets)
🛠️ ≈150 tweets compartilhando casos de uso práticos
🔍 33 auditorias expressas
📋 38 454 linhas de código digitalizadas
⚠️ 377 vulnerabilidades detectadas
Uma nota pessoal
Exatamente um ano atrás, entrei na Nethermind com o que parecia uma hipótese arriscada: "A IA se tornará uma parte essencial da segurança de contratos inteligentes, mas apenas ferramentas especializadas e nativas do fluxo de trabalho realmente ajudarão os profissionais".
Doze meses depois, temos dois produtos em produção - AuditAgent ( e agora I.R.I.S. (@UndercoverIRIS) - e um claro impacto na segurança da Web3.
Muito obrigado a toda a equipe @NethermindEth AI e a @virtuals_io. Persistência + uma hipótese sólida + experiência combinada = resultados que a indústria pode ver.
Continuaremos criando ferramentas que trazem segurança aos desenvolvedores em primeiro lugar, para que a Web3 fique mais segura a cada commit.

735
Acabei de voltar do AI Summit London - e o cenário da IA corporativa parece muito diferente de perto
3 coisas que me atingiram:
1️⃣ Prateleiras de produtos superlotadas.
Cada estande prometia uma "plataforma de IA" plug-and-play que se encaixa magicamente em qualquer pilha. Mas ande no chão por tempo suficiente e você continuará ouvindo o mesmo bloqueador: sistemas legados sem APIs, dados dispersos, lógica de negócios pouco clara. A realidade será brutal para SaaS de tamanho único.
2️⃣ Lojas personalizadas brilham silenciosamente.
As agências que combinam consultoria de domínio profundo com desenvolvimento personalizado rápido têm uma vantagem clara. Eles podem cair no meio bagunçado, juntar as coisas e enviar algo que realmente funciona dentro da infraestrutura frágil de um cliente.
3️⃣ O trabalho personalizado está ficando mais barato, não mais caro.
Com modelos de geração de código escrevendo adaptadores, testes e andaimes, os desenvolvedores seniores agora orquestram em vez de digitar à mão. Nossa experiência de uso contínuo de ferramentas de IA dentro da organização apenas confirma isso.
A conclusão
Os vencedores em IA empresarial não serão os agentes "prontos para uso" mais chamativos – eles serão as equipes ágeis que podem co-criar soluções em tempo real, guiadas pelas restrições confusas da tecnologia legada.

264
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável