Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
Co-fundador do Coursera; Stanford CS adjunto Ex-chefe do Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Estou emocionado em anunciar o curso definitivo sobre Claude Code, criado com @AnthropicAI e ministrado por Elie Schoppik @eschoppik. Se você deseja usar codificação altamente agêntica - onde a IA funciona de forma autônoma por muitos minutos ou mais, não apenas completando trechos de código - é isso.
Claude Code tem sido um divisor de águas para muitos desenvolvedores (inclusive eu!), mas há uma profundidade real em usá-lo bem. Este curso abrangente abrange tudo, desde fundamentos até padrões avançados.
Após este curso de curta duração, você será capaz de:
- Orquestre vários subagentes Claude para trabalhar em diferentes partes da sua base de código simultaneamente
- Marque Claude em problemas do GitHub e faça com que ele crie, revise e mescle solicitações de pull de forma autônoma
- Transforme notebooks Jupyter bagunçados em painéis limpos e prontos para produção
- Use ferramentas MCP como o Playwright para que Claude possa ver o que há de errado com sua interface do usuário e corrigi-lo de forma autônoma
Se você é novo no Claude Code ou já o usa, você descobrirá recursos poderosos que podem mudar fundamentalmente a forma como você cria software.
Estou muito animado com o que a codificação agêntica permite que todos façam agora. Por favor, faça este curso!
694,12K
Anunciando um novo curso do Coursera: Retrieval Augmented Generation (RAG)
Você aprenderá a construir sistemas RAG de alto desempenho e prontos para produção neste curso prático e aprofundado criado e ministrado por @ZainHasan6, experiente engenheiro, pesquisador e educador de IA e ML.
O RAG é um componente crítico hoje de muitos aplicativos baseados em LLM no suporte ao cliente, sistemas internos de perguntas e respostas da empresa e até mesmo muitos dos principais chatbots que usam pesquisa na web para responder às suas perguntas. Este curso ensina em profundidade como fazer o RAG funcionar bem.
Os LLMs podem produzir respostas genéricas ou desatualizadas, especialmente quando feitas perguntas especializadas não abordadas em seus dados de treinamento. RAG é a técnica mais amplamente usada para lidar com isso. Ele traz dados de novas fontes de dados, como documentos internos ou notícias recentes, para dar ao LLM o contexto relevante para informações privadas, recentes ou especializadas. Isso permite gerar respostas mais fundamentadas e precisas.
Neste curso, você aprenderá a projetar e implementar todas as partes de um sistema RAG, de retrievers a bancos de dados vetoriais, geração e avaliações. Você aprenderá sobre os princípios fundamentais por trás do RAG e como otimizá-lo nos níveis do componente e de todo o sistema.
À medida que a IA evolui, o RAG também está evoluindo. Novos modelos podem lidar com janelas de contexto mais longas, raciocinar com mais eficiência e podem fazer parte de fluxos de trabalho agenciais complexos. Uma área de crescimento empolgante é o Agentic RAG, no qual um agente de IA em tempo de execução (em vez de ser codificado no momento do desenvolvimento) decide de forma autônoma quais dados recuperar e quando/como se aprofundar. Mesmo com essa evolução, o acesso a dados de alta qualidade em tempo de execução é essencial, e é por isso que o RAG é uma parte fundamental de tantas aplicações.
Você aprenderá por meio de experiências práticas a:
- Construir um sistema RAG com recuperação e aumento imediato
- Compare métodos de recuperação como BM25, pesquisa semântica e fusão de classificação recíproca
- Fragmente, indexe e recupere documentos usando um banco de dados vetorial Weaviate e um conjunto de dados de notícias
- Desenvolva um chatbot, usando LLMs de código aberto hospedados pela Together AI, para uma loja fictícia que responda a perguntas sobre produtos e perguntas frequentes
- Use avaliações para melhorar a confiabilidade e incorporar dados multimodais
RAG é uma técnica fundamental importante. Torne-se bom nisso através deste curso!
Por favor, inscreva-se aqui:
107,06K
Minha palestra na YC Startup School sobre como construir startups de IA. Compartilho dicas de @AI_Fund sobre como usar a IA para construir rapidamente. Deixe-me saber o que você pensa!

Y Combinator10 de jul. de 2025
Andrew Ng (@AndrewYNg) sobre como as startups podem construir mais rápido com IA.
Na AI Startup School em San Francisco.
00:31 – A importância da velocidade nas startups
01:13 – Oportunidades na pilha de IA
02:06 – A ascensão do agente IA
04:52 – Ideias concretas para execução mais rápida
08:56 – Prototipagem Rápida e Engenharia
17:06 – O papel do gerenciamento de produtos
21:23 – O valor de entender a IA
22:33 – Decisões técnicas no desenvolvimento de IA
23:26 – Aproveitando as ferramentas de IA da Gen para startups
24:05 – Criando com blocos de construção de IA
25:26 – A Importância da Velocidade em Startups
26:41 – Abordando o hype e os equívocos da IA
37:35 – IA na Educação: Tendências Atuais e Direções Futuras
39:33 – Equilibrando a inovação de IA com considerações éticas
41:27 – Protegendo o código aberto e o futuro da IA
146,53K
A Extração de Documentos Agentic agora suporta extração de campo! Muitos casos de uso de extração de documentos extraem campos específicos de formulários e outros documentos estruturados. Agora você pode inserir uma imagem ou PDF de uma fatura, solicitar o nome do fornecedor, a lista de itens e os preços e recuperar os campos extraídos. Ou insira um formulário médico e especifique um esquema para extrair o nome do paciente, ID do paciente, número do seguro, etc.
Um recurso interessante: se você não quiser escrever um esquema (especificação json de quais campos extrair) por conta própria, carregue um documento de amostra e escreva um prompt de linguagem natural dizendo o que deseja, e geraremos automaticamente um esquema para você.
Veja o vídeo para mais detalhes!
178,31K
Novo Curso: Pós-formação de LLMs
Aprenda a pós-treinar e personalizar um LLM neste curso de curta duração, ministrado por @BanghuaZ, professor assistente da Universidade de Washington @UW e cofundador da @NexusflowX.
Treinar um LLM para seguir instruções ou responder a perguntas tem duas etapas principais: pré-treinamento e pós-treinamento. No pré-treinamento, ele aprende a prever a próxima palavra ou token a partir de grandes quantidades de texto não rotulado. No pós-treinamento, ele aprende comportamentos úteis, como seguir instruções, uso de ferramentas e raciocínio.
O pós-treinamento transforma um preditor de token de uso geral, treinado em trilhões de tokens de texto não rotulados, em um assistente que segue instruções e executa tarefas específicas. Por ser muito mais barato do que o pré-treinamento, é prático para muito mais equipes incorporar métodos de pós-treinamento em seus fluxos de trabalho do que o pré-treinamento.
Neste curso, você aprenderá três métodos comuns de pós-treinamento - Ajuste fino supervisionado (SFT), Otimização de preferência direta (DPO) e Aprendizado por reforço on-line (RL) - e como usar cada um deles de forma eficaz. Com o SFT, você treina o modelo em pares de respostas de entrada e saída ideais. Com o DPO, você fornece uma resposta preferencial (escolhida) e uma menos preferida (rejeitada) e treina o modelo para favorecer a saída preferencial. Com a RL, o modelo gera uma saída, recebe uma pontuação de recompensa com base em comentários humanos ou automatizados e atualiza o modelo para melhorar o desempenho.
Você aprenderá os conceitos básicos, casos de uso comuns e princípios para selecionar dados de alta qualidade para um treinamento eficaz. Por meio de laboratórios práticos, você baixará um modelo pré-treinado do Hugging Face e o treinará posteriormente usando SFT, DPO e RL para ver como cada técnica molda o comportamento do modelo.
Em detalhes, você irá:
- Entenda o que é pós-treino, quando usá-lo e como ele difere do pré-treino.
- Crie um pipeline SFT para transformar um modelo base em um modelo de instrução.
- Explore como o DPO remodela o comportamento, minimizando a perda contrastiva, penalizando respostas ruins e reforçando as preferidas.
- Implemente um pipeline de DPO para alterar a identidade de um assistente de chat.
- Aprenda métodos de RL online, como Otimização de Política Proximal (PPO) e Otimização de Política Relativa de Grupo (GRPO), e como projetar funções de recompensa.
- Treine um modelo com GRPO para melhorar seus recursos matemáticos usando uma recompensa verificável.
O pós-treinamento é uma das áreas de desenvolvimento mais rápido do treinamento LLM. Esteja você criando um assistente específico de contexto de alta precisão, ajustando o tom de um modelo ou melhorando a precisão específica da tarefa, este curso lhe dará experiência com as técnicas mais importantes que moldam como os LLMs são pós-treinados hoje.
Por favor, inscreva-se aqui:
109,57K
Gostaria de compartilhar uma dica para obter mais prática de construção com IA - ou seja, usar blocos de construção de IA para criar aplicativos ou usar assistência de codificação de IA para criar aplicativos poderosos rapidamente: Se você tiver apenas um tempo limitado para construir, reduza o escopo do seu projeto até que você possa construir algo em qualquer tempo que você tenha.
Se você tiver apenas uma hora, encontre um pequeno componente de uma ideia com a qual esteja animado e que possa construir em uma hora. Com assistentes de codificação modernos como o Claude Code da Anthropic (minha ferramenta de desenvolvimento favorita no momento), você pode se surpreender com o quanto pode fazer mesmo em curtos períodos de tempo! Isso faz você seguir em frente e você sempre pode continuar o projeto mais tarde.
Para se tornar bom em construir com IA, a maioria das pessoas deve (i) aprender técnicas relevantes, por exemplo, fazendo cursos online de IA, e (ii) praticar a construção. Conheço desenvolvedores que se alimentam de ideias por meses sem realmente construir nada - eu também fiz isso! - porque sentimos que não temos tempo para começar. Se você se encontrar nessa posição, encorajo-o a continuar cortando o escopo inicial do projeto até identificar um pequeno componente que possa construir imediatamente.
Deixe-me ilustrar com um exemplo - um dos meus muitos projetos pequenos e divertidos de fim de semana que podem nunca ir a lugar nenhum, mas que estou feliz por ter feito isso.
Aqui está a ideia: muitas pessoas temem falar em público. E falar em público é difícil de praticar, porque é difícil organizar uma audiência. Então pensei que seria interessante construir um simulador de audiência para fornecer uma audiência digital de dezenas a centenas de pessoas virtuais em um monitor de computador e permitir que um usuário pratique falando com elas.
Em uma tarde de sábado, encontrei-me em uma cafeteria com algumas horas de sobra e decidi dar uma chance ao simulador de público. Minha familiaridade com a codificação gráfica é limitada, então, em vez de construir um simulador complexo de um grande público e escrever um software de IA para simular as respostas apropriadas do público, decidi reduzir significativamente o escopo para (a) simular um público de uma pessoa (que eu poderia replicar mais tarde para simular N pessoas), (b) omitir a IA e permitir que um operador humano selecione manualmente a reação do público simulado (semelhante à prototipagem do Mágico de Oz), e (c) implementar os gráficos usando um avatar 2D simples.
Usando uma mistura de vários assistentes de codificação, construí uma versão básica no tempo que tinha. O avatar podia se mover sutilmente e piscar, mas, por outro lado, usava gráficos básicos. Mesmo que tenha ficado muito aquém de um simulador de público sofisticado, estou feliz por ter construído isso. Além de levar o projeto adiante e me permitir explorar diferentes designs, ele avançou meu conhecimento de gráficos básicos. Além disso, ter esse protótipo bruto para mostrar aos amigos me ajudou a obter feedback do usuário que moldou minhas opiniões sobre a ideia do produto.
Tenho no meu laptop uma lista de ideias de coisas que acho que seriam interessantes construir. A maioria deles levaria muito mais tempo do que o punhado de horas que eu poderia ter para tentar algo em um determinado dia, mas cortando seu escopo, posso seguir em frente, e o progresso inicial em um projeto me ajuda a decidir se vale a pena investir mais. Como bônus, hackear uma ampla variedade de aplicativos me ajuda a praticar uma ampla gama de habilidades. Mas o mais importante, isso tira uma ideia da minha cabeça e potencialmente na frente de usuários em potencial para obter feedback que permite que o projeto avance mais rápido.
[Texto original: ]

295,58K
Novo curso: ACP: Protocolo de comunicação do agente
Aprenda a criar agentes que se comunicam e colaboram em diferentes estruturas usando o ACP neste curso de curta duração desenvolvido com o BeeAI da @IBMResearch e ministrado por @sandi_besen, engenheiro de pesquisa de IA e líder de ecossistema da IBM, e @nicholasrenotte, chefe de defesa do desenvolvedor de IA da IBM.
Construir um sistema multiagente com agentes criados ou usados por diferentes equipes e organizações pode se tornar um desafio. Pode ser necessário escrever integrações personalizadas sempre que uma equipe atualizar o design do agente ou alterar a escolha da estrutura de orquestração do agente.
O Agent Communication Protocol (ACP) é um protocolo aberto que aborda esse desafio padronizando a forma como os agentes se comunicam, usando uma interface RESTful unificada que funciona em todas as estruturas. Nesse protocolo, você hospeda um agente dentro de um servidor ACP, que lida com solicitações de um cliente ACP e as passa para o agente apropriado. O uso de uma interface cliente-servidor padronizada permite que várias equipes reutilizem agentes em projetos. Também facilita a alternância entre estruturas, a substituição de um agente por uma nova versão ou a atualização de um sistema multiagente sem refatorar todo o sistema.
Neste curso, você aprenderá a conectar agentes por meio do ACP. Você entenderá o ciclo de vida de um agente ACP e como ele se compara a outros protocolos, como MCP (Model Context Protocol) e A2A (Agent-to-Agent). Você criará agentes compatíveis com ACP e implementará fluxos de trabalho sequenciais e hierárquicos de vários agentes que colaboram usando o ACP.
Por meio de exercícios práticos, você criará:
- Um agente RAG com CrewAI e envolvê-lo dentro de um servidor ACP.
- Um cliente ACP para fazer chamadas para o servidor ACP que você criou.
- Um fluxo de trabalho sequencial que encadeia um servidor ACP, criado com Smolagents, ao agente RAG.
- Um fluxo de trabalho hierárquico usando um agente de roteador que transforma consultas de usuário em tarefas, delegadas a agentes disponíveis por meio de servidores ACP.
- Um agente que usa o MCP para acessar ferramentas e o ACP para se comunicar com outros agentes.
Você terminará importando seus agentes ACP para a plataforma BeeAI, um registro de código aberto para descobrir e compartilhar agentes.
O ACP permite a colaboração entre agentes entre equipes e organizações. Ao final deste curso, você poderá criar agentes e fluxos de trabalho ACP que se comunicam e colaboram, independentemente da estrutura.
Por favor, inscreva-se aqui:
88,29K
Apresentando "Construindo com Lhama 4". Este minicurso foi criado com @Meta @AIatMeta e ministrado por @asangani7, Diretor de Engenharia de Parceiros da equipe de IA da Meta.
O novo Llama 4 da Meta adicionou três novos modelos e introduziu a arquitetura Mix-of-Experts (MoE) à sua família de modelos de peso aberto, tornando-os mais eficientes para servir.
Neste curso, você trabalhará com dois dos três novos modelos introduzidos no Llama 4. O primeiro é o Maverick, um modelo de parâmetro 400B, com 128 especialistas e parâmetros ativos 17B. O segundo é o Scout, um modelo de parâmetro 109B com 16 especialistas e parâmetros ativos 17B. Maverick e Scout suportam longas janelas de contexto de até um milhão de tokens e 10 milhões de tokens, respectivamente. O último é suficiente para suportar a entrada direta até mesmo de repositórios GitHub razoavelmente grandes para análise!
Nas aulas práticas, você criará aplicativos usando os novos recursos multimodais do Llama 4, incluindo raciocínio em várias imagens e aterramento de imagens, nos quais você pode identificar elementos em imagens. Você também usará a API oficial do Llama, trabalhará com as habilidades de contexto longo do Llama 4 e aprenderá sobre as mais novas ferramentas de código aberto do Llama: sua ferramenta de otimização de prompt que melhora automaticamente os prompts do sistema e o kit de dados sintéticos que gera conjuntos de dados de alta qualidade para ajuste fino.
Se você precisa de um modelo aberto, o Llama é uma ótima opção, e a família Llama 4 é uma parte importante do kit de ferramentas de qualquer desenvolvedor GenAI. Por meio deste curso, você aprenderá a chamar o Llama 4 via API, usar suas ferramentas de otimização e criar recursos que abrangem texto, imagens e contexto amplo.
Por favor, inscreva-se aqui:
57,49K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável