Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 republicou
Depois de quase uma semana de tentativas e erros, finalmente consegui reproduzir o Transformer. A sensação agora é que a construção do Transformer é definitivamente o resultado de genialidade + suor. Tem um significado revolucionário tanto na teoria quanto na engenharia. (Embora agora pareça um pouco tarde para dizer isso)
59,4K
Estive com problemas durante vários dias, apenas os nós da Islândia conseguiam conectar. De repente, tudo funcionou esta tarde.

Jason Young23/08, 19:41
A escada quebrou a tarde toda, sinto que perdi a conexão com o mundo.
5,94K
A IA é apenas uma ferramenta, e seu uso depende de como é utilizada. O código gerado pela IA pode ser considerado apenas mediano. Ela analisou muitos códigos de qualidade variável e não possui um gosto próprio, resultando frequentemente na produção de códigos de baixa qualidade. Esses códigos podem parecer inofensivos como fragmentos de módulo, mas, quando inseridos em uma arquitetura maior, podem causar inúmeros problemas.

宝玉23/08, 00:11
Os modelos de IA mais avançados escrevem código de forma eficaz, com um nível de módulo que supera a média dos programadores humanos. Se o código gerado for de baixa qualidade, é importante verificar qual modelo foi escolhido, se o contexto é suficiente e se as palavras-chave precisam de otimização.
Para códigos que cruzam módulos, devido à limitação do comprimento da janela de contexto, pode ser necessário o auxílio humano para planejar o design. Se a estrutura do projeto for razoável, a IA também pode reutilizar o código existente para manter o princípio DRY.
6,02K
A IA também não é que não consiga ler, mas sim que não consegue lembrar. Quando conseguirmos realmente implementar a memória dentro do modelo, poderemos superar as limitações do contexto.

geniusvczh22/08, 18:58
Depois de pensar bem, a razão pela qual a AI escreve código mal não é porque não sabe escrever, mas sim porque não sabe ler. As pessoas tendem a olhar para muitas coisas que aparentemente não estão relacionadas ao fazer uma funcionalidade, mas são exatamente essas coisas que parecem não ter relação que oferecem a possibilidade de manter o projeto DRY. Para que a AI possa se tornar um pilar, ela deve primeiro aprender isso.
2,36K
Para os colegas que usam programação com IA, já perceberam que, com a IA, na verdade, estão mais ocupados?
Antes, um pedido, desde a descrição do pedido, formação da equipe, front-end e back-end do produto, testes, uma série de pessoas mobilizadas, até a conclusão do trabalho, levava pelo menos duas semanas.
Agora, uma pessoa consegue resolver tudo em uma noite.
Mas antes, podíamos alegar que estávamos esperando a equipe, aproveitando para relaxar. Agora não dá mais para relaxar. 😶🌫️
66,83K
As ofertas sendo consumidas por aqueles que estão a passar fome é o mérito da pessoa que está a ser homenageada.

garrulous abyss🌈22/08, 16:58
Não fale como se fosse um bodhisattva.
Se você estiver no campo prestes a morrer de fome... e ver um túmulo ao lado da estrada, com oferendas. Você se curva e diz: "Desculpe, estou prestes a morrer de fome, posso pegar uma oferenda para comer?" Eu acho que ninguém ou nenhum espírito iria te incomodar...

2,21K
Quando um campo começa a discutir filosofia, isso significa que uma fase está prestes a terminar. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22/08, 06:53
Por que parece que a pesquisa em engenharia de IA está cada vez mais inclinada para a filosofia da linguagem?

4,83K
O rag único é um produto da primeira geração de melhorias. O que estou fazendo agora é implementar o rag como mcp, oferecendo duas APIs: ask e fetch. A recuperação ainda usa o mecanismo tradicional de rag, enquanto a leitura expandida permite que a IA chame fetch para ler o contexto anterior e posterior. O mecanismo é semelhante ao cline grep ao reler o arquivo.

宝玉21/08, 07:39
Concordo plenamente: 1. A colaboração paralela de múltiplos agentes não é tão estável quanto a de um único thread; 2. RAG não é confiável e é pior do que a busca tradicional; 3. Quanto mais instruções houver nas palavras-chave, menos o modelo sabe como escolher.
—— A tradução original do tweet é a seguinte ——
Na construção de agentes inteligentes de IA (AI Agent), nossa equipe @Cline identificou três "vírus de pensamento". O que chamamos de "vírus de pensamento" são aquelas ideias que parecem muito inteligentes, mas que na prática não funcionam de jeito nenhum.
Esses três vírus são:
* Colaboração de múltiplos agentes (Multi-Agent Orchestration)
* Geração aumentada por busca (RAG)
* Mais instruções = melhores resultados
Vamos explorar isso!
1. Colaboração de múltiplos agentes
Aquela cena de filme de ficção científica — "agentes de apoio, agentes de suprimentos, agentes de análise, agentes de comando" despachando um grande número de sub-agentes e, por fim, reunindo os resultados — soa realmente legal. Mas a realidade é que a grande maioria do trabalho útil dos agentes é feito em um único thread.
Processos de colaboração complexos raramente trazem valor real, e muitas vezes criam confusão. É importante saber que apenas fazer o modelo funcionar de forma estável em um único thread já é bastante difícil, quanto mais lidar com aquelas lógicas de colaboração paralela. Isso não só aumenta a complexidade da implementação, mas também torna o processo de compreensão e decisão do modelo excepcionalmente complicado.
2. Usar RAG para construir agentes
RAG, ou Geração Aumentada por Busca (Retrieval Augmented Generation), também é um vírus de pensamento. Ele parece muito poderoso em teoria, mas na prática, especialmente em cenários de agentes, às vezes até mesmo um comando básico de busca de texto como GREP é mais útil.
Por que o brilho do RAG se desvanece nos fluxos de trabalho reais dos agentes? Porque as informações recuperadas são frequentemente fragmentadas e não permitem que o modelo forme uma "compreensão" coerente e útil.
Uma abordagem melhor é quase sempre: deixar o modelo listar os arquivos, buscar de forma semelhante ao grep e, em seguida, abrir e ler o arquivo inteiro (como um humano faria). A equipe @Cline começou a fazer isso há muito tempo, e depois vimos que @Amp — Research Preview e @Cursor também se voltaram para essa abordagem mais pragmática.
3. Mais instruções = melhores resultados
Há um equívoco amplamente difundido: empilhar cada vez mais "instruções" nas palavras-chave do sistema (system prompt) fará com que o modelo se torne mais inteligente. Isso está completamente errado.
"Hidratar" as palavras-chave só confundirá o modelo, pois mais instruções frequentemente levam a conflitos de sugestões e sobrecarga de informações.
O resultado é que você acaba tendo que consertar continuamente os comportamentos estranhos do modelo, como se estivesse jogando "mole" em vez de obter saídas realmente úteis. Para a maioria dos modelos de ponta hoje, a melhor abordagem é não obstruir seu caminho, em vez de ficar gritando ao lado, tentando direcioná-los para uma determinada direção. Valorize cada uma de suas palavras (ou Tokens).
Em suma, essas três ideias são extremamente sedutoras. Se você não lida com IA o dia todo, pode achar que todas elas fazem muito sentido — no entanto, a realidade é diferente. Claro, à medida que as capacidades dos modelos subjacentes melhoram, nossa visão sobre esses métodos também pode mudar no futuro.
6,22K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável