Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
alcançar a ambição com intencionalidade, intensidade, integridade e integridade
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
trabalho incrível em esteganografia de alinhamento por parte dos colegas da Anthropic
estive à procura de uma explicação straussiana para o porquê de a China continuar a publicar modelos abertos pela bondade dos seus corações
se você fizer coisas como usar modelos abertos para, sei lá, limpar *ahem* parafrasear sinteticamente seus dados para uma qualidade de livro didático, pode muito bem importar preconceitos que você não consegue detectar até muito depois de ser tarde demais.
portanto, se você quiser exportar seu sistema de valores para o resto do mundo, esta é a ferramenta de Soft Power mais poderosa inventada desde Hollywood.
para ser super claro, não temos nenhuma prova real de que isso motive algum dos laboratórios chineses. mas este artigo é um passo claro em direção a uma possível explicação.


Owain Evans23/07, 00:06
Novo artigo e resultado surpreendente.
Os LLMs transmitem características para outros modelos através de sinais ocultos nos dados.
Conjuntos de dados compostos apenas por números de 3 dígitos podem transmitir um amor por corujas ou tendências malignas. 🧵

26,11K
parabéns ao Bee por ter sido escolhido pela Amazon; semelhante ao Blink, Ring, Eero e claro, o novo Claude + Nova + Alexa, acho que @panos_panay está a montar um segundo ato bastante sólido da estratégia de hardware de IA da Amazon
sabia que o Bee estava a ganhar quando @dharmesh apareceu no seu @latentspacepod a usar um

12,33K
a razão pela qual a análise de llm (e regulação, e PMing) é difícil*
é que as DIMENSÕES relevantes continuam a mudar com cada geração de modelo de fronteira; não é suficiente apenas colocar o seu eixo x ou y em escala logarítmica e rastrear leis de escalonamento, você realmente tem que fazer o trabalho de pensar sobre como os modelos são estruturalmente diferentes em 2025 em comparação com 2024, 2023 e assim por diante
eg
todos focaram no elo por 2 anos, o elo é manipulado e perde credibilidade
todos focaram no preço por tokens por 3 anos, modelos de raciocínio têm variação de 10-40x na saída de tokens por tarefa, o preço por token perde significado
colete dados o quanto quiser, mas se você está apenas coletando séries temporais pristinas, pode perder de vista o quadro maior
*(e por que declarações como “engenheiro de ai não é uma coisa porque todos os engenheiros de software são engenheiros de ai” são uma forma de lidar e nunca estarão certas, exceto no sentido mais trivial)

Scott Huston22/07, 08:30
Existe uma folha de cálculo pública com todos os principais modelos LLM de diferentes empresas mostrando seus preços, pontuações de benchmark, pontuações de elo na arena, etc?
9,92K
swyx republicou
🆕 Lançamento de toda a nossa trilha de RL + Raciocínio!
apresentando:
• @willccbb, Prime Intellect
• @GregKamradt, Arc Prize
• @natolambert, AI2/Interconnects
• @corbtt, OpenPipe
• @achowdhery, Reflection
• @ryanmart3n, Bespoke
• @ChrSzegedy, Morph
com um workshop especial de 3 horas de:
@danielhanchen do Unsloth!
comece aqui:
Bom fim de semana assistindo! e obrigado ao @OpenPipeAI por apoiar e hospedar esta trilha!

106,66K
swyx republicou
se, como @sgrove propõe, as especificações são o código do futuro, então o que é depuração?
1) a compilação de especificações é o processo de um agente de codificação transformando especificações em código
2) cada vez mais "compilação" será não supervisionada, menos observando o agente trabalhar diff por diff, mais especificação dentro, código fora
3) erros de tipo -> erros de verdade: a maior parte da depuração será escavar em pesquisas e planos de implementação em markdown para encontrar a única linha de contexto incorreto que faz o agente de codificação falhar ao implementar. As suítes de teste irão, entre outras coisas, verificar a verdade e a consistência lógica.
4) há um novo sabor de ordem superior de "anexar um depurador de etapas" que é observar o agente implementar um plano passo a passo para identificar o erro lógico na especificação. Quando você encontra um erro ao percorrer um programa linha por linha, você altera o código, reinicia o processo e repete até que funcione. Quando você encontra um erro em uma *especificação* enquanto percorre uma implementação, você vai para cima, corrige a especificação e reinicia a *implementação*.
10,27K
estamos a lançar uma faixa por dia da conferência @aidotengineer agora*. a faixa RecSys de ontem foi um grande sucesso - mas de longe a faixa mais quente foi a nossa cobertura do estado do MCP, apresentada por @Calclavia
o meu slide favorito é este em que percebi que a @AnthropicAI utiliza o MCP -muito- mais do que eu inicialmente pensei a partir do nosso podcast com @dsp_ e @jspahrsummers
dá uma olhada nessas palestras e dá um grito aos teus palestrantes favoritos!
*a maioria já disponível como "não listada" através da "Playlist Completa" se fizeres uma pesquisa

21,69K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável