Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
co-fondatore di Coursera; Facoltà aggiunta di Stanford CS. Ex capo di Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Sono entusiasta di annunciare il corso definitivo su Claude Code, creato con @AnthropicAI e insegnato da Elie Schoppik @eschoppik. Se vuoi utilizzare una programmazione altamente agentica - dove l'IA lavora autonomamente per molti minuti o più a lungo, non solo completando frammenti di codice - questo è il corso giusto.
Claude Code è stato un cambiamento radicale per molti sviluppatori (incluso me!), ma c'è una vera profondità nell'utilizzarlo bene. Questo corso completo copre tutto, dai fondamenti ai modelli avanzati.
Dopo questo breve corso, sarai in grado di:
- Orchestrare più sottoagenti Claude per lavorare su diverse parti del tuo codice contemporaneamente
- Taggare Claude nelle issue di GitHub e farlo creare, rivedere e unire autonomamente le pull request
- Trasformare disordinati notebook Jupyter in dashboard pulite e pronte per la produzione
- Utilizzare strumenti MCP come Playwright affinché Claude possa vedere cosa c'è che non va nella tua interfaccia utente e correggerlo autonomamente
Che tu sia nuovo su Claude Code o lo stia già utilizzando, scoprirai potenti capacità che possono cambiare fondamentalmente il modo in cui costruisci software.
Sono molto entusiasta di ciò che la programmazione agentica consente ora a tutti di fare. Ti prego di seguire questo corso!
694,11K
Annuncio di un nuovo corso su Coursera: Generazione Aumentata da Recupero (RAG)
Imparerai a costruire sistemi RAG ad alte prestazioni e pronti per la produzione in questo corso pratico e approfondito creato e insegnato da @ZainHasan6, ingegnere esperto in AI e ML, ricercatore ed educatore.
RAG è un componente critico oggi di molte applicazioni basate su LLM nel supporto clienti, nei sistemi di domande e risposte interni delle aziende, e persino in molti dei principali chatbot che utilizzano la ricerca web per rispondere alle tue domande. Questo corso ti insegnerà in dettaglio come far funzionare bene RAG.
Gli LLM possono produrre risposte generiche o obsolete, specialmente quando vengono poste domande specializzate non coperte nei dati di addestramento. RAG è la tecnica più ampiamente utilizzata per affrontare questo problema. Porta dati da nuove fonti, come documenti interni o notizie recenti, per fornire all'LLM il contesto rilevante per informazioni private, recenti o specializzate. Questo gli consente di generare risposte più concrete e accurate.
In questo corso, imparerai a progettare e implementare ogni parte di un sistema RAG, dai recuperatori ai database vettoriali, dalla generazione alle valutazioni. Imparerai i principi fondamentali dietro RAG e come ottimizzarlo sia a livello di componente che a livello di sistema completo.
Con l'evoluzione dell'AI, anche RAG sta evolvendo. Nuovi modelli possono gestire finestre di contesto più lunghe, ragionare in modo più efficace e possono far parte di flussi di lavoro agentici complessi. Un'area di crescita entusiasmante è RAG Agentico, in cui un agente AI in tempo reale (anziché essere codificato a tempo di sviluppo) decide autonomamente quali dati recuperare e quando/come approfondire. Anche con questa evoluzione, l'accesso a dati di alta qualità in tempo reale è essenziale, motivo per cui RAG è una parte chiave di così tante applicazioni.
Imparerai attraverso esperienze pratiche a:
- Costruire un sistema RAG con recupero e aumento del prompt
- Confrontare metodi di recupero come BM25, ricerca semantica e Fusione di Rango Reciproco
- Suddividere, indicizzare e recuperare documenti utilizzando un database vettoriale Weaviate e un dataset di notizie
- Sviluppare un chatbot, utilizzando LLM open-source ospitati da Together AI, per un negozio fittizio che risponde a domande sui prodotti e FAQ
- Utilizzare valutazioni per migliorare l'affidabilità e incorporare dati multimodali
RAG è una tecnica fondamentale importante. Diventa esperto in questo attraverso questo corso!
Iscriviti qui:
107,05K
Il mio intervento alla YC Startup School su come costruire startup di intelligenza artificiale. Condivido consigli da @AI_Fund su come utilizzare l'IA per costruire rapidamente. Fammi sapere cosa ne pensi!

Y Combinator10 lug 2025
Andrew Ng (@AndrewYNg) su come le startup possono crescere più velocemente con l'AI.
All'AI Startup School a San Francisco.
00:31 - L'importanza della velocità nelle startup
01:13 - Opportunità nello stack AI
02:06 - L'ascesa dell'Agent AI
04:52 - Idee concrete per un'esecuzione più rapida
08:56 - Prototipazione rapida e ingegneria
17:06 - Il ruolo della gestione del prodotto
21:23 - Il valore della comprensione dell'AI
22:33 - Decisioni tecniche nello sviluppo dell'AI
23:26 - Sfruttare gli strumenti Gen AI per le startup
24:05 - Costruire con i mattoni dell'AI
25:26 - L'importanza della velocità nelle startup
26:41 - Affrontare l'hype e le misconcezioni sull'AI
37:35 - L'AI nell'istruzione: tendenze attuali e direzioni future
39:33 - Bilanciare l'innovazione dell'AI con considerazioni etiche
41:27 - Proteggere l'open source e il futuro dell'AI
146,53K
L'estrazione di documenti agentici ora supporta l'estrazione di campi! Molti casi d'uso per l'estrazione di documenti estraggono campi specifici da moduli e altri documenti strutturati. Ora puoi inserire un'immagine o un PDF di una fattura, richiedere il nome del fornitore, l'elenco degli articoli e i prezzi, e ricevere indietro i campi estratti. Oppure inserisci un modulo medico e specifica uno schema per estrarre il nome del paziente, l'ID del paziente, il numero di assicurazione, ecc.
Una funzionalità interessante: se non hai voglia di scrivere uno schema (specifica in json di quali campi estrarre) tu stesso, carica un documento di esempio e scrivi un prompt in linguaggio naturale dicendo cosa vuoi, e noi generiamo automaticamente uno schema per te.
Guarda il video per i dettagli!
178,3K
Nuovo Corso: Post-training di LLM
Impara a post-addestrare e personalizzare un LLM in questo breve corso, tenuto da @BanghuaZ, Professore Associato presso l'Università di Washington @UW e co-fondatore di @NexusflowX.
Addestrare un LLM a seguire istruzioni o rispondere a domande ha due fasi chiave: pre-addestramento e post-addestramento. Nel pre-addestramento, impara a prevedere la parola o il token successivo da grandi quantità di testo non etichettato. Nel post-addestramento, impara comportamenti utili come seguire istruzioni, utilizzo di strumenti e ragionamento.
Il post-addestramento trasforma un predittore di token di uso generale—addestrato su trilioni di token di testo non etichettato—in un assistente che segue istruzioni e svolge compiti specifici. Poiché è molto più economico del pre-addestramento, è pratico per molte più squadre incorporare metodi di post-addestramento nei loro flussi di lavoro rispetto al pre-addestramento.
In questo corso, imparerai tre metodi comuni di post-addestramento—Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) e Online Reinforcement Learning (RL)—e come utilizzare ciascuno in modo efficace. Con SFT, addestri il modello su coppie di input e risposte ideali. Con DPO, fornisci sia una risposta preferita (scelta) che una meno preferita (rifiutata) e addestri il modello a favorire l'output preferito. Con RL, il modello genera un output, riceve un punteggio di ricompensa basato su feedback umano o automatizzato e aggiorna il modello per migliorare le prestazioni.
Imparerai i concetti di base, i casi d'uso comuni e i principi per curare dati di alta qualità per un addestramento efficace. Attraverso laboratori pratici, scaricherai un modello pre-addestrato da Hugging Face e lo post-addestrerai utilizzando SFT, DPO e RL per vedere come ciascuna tecnica modella il comportamento del modello.
In dettaglio, imparerai a:
- Comprendere cos'è il post-addestramento, quando usarlo e come si differenzia dal pre-addestramento.
- Costruire una pipeline SFT per trasformare un modello di base in un modello istruttivo.
- Esplorare come DPO rimodella il comportamento minimizzando la perdita contrastiva—penalizzando risposte scadenti e rinforzando quelle preferite.
- Implementare una pipeline DPO per cambiare l'identità di un assistente chat.
- Imparare metodi di RL online come Proximal Policy Optimization (PPO) e Group Relative Policy Optimization (GRPO), e come progettare funzioni di ricompensa.
- Addestrare un modello con GRPO per migliorare le sue capacità matematiche utilizzando una ricompensa verificabile.
Il post-addestramento è una delle aree in più rapida evoluzione dell'addestramento degli LLM. Che tu stia costruendo un assistente specifico per un contesto ad alta precisione, affinando il tono di un modello o migliorando la precisione specifica del compito, questo corso ti darà esperienza con le tecniche più importanti che plasmano come gli LLM vengono post-addestrati oggi.
Iscriviti qui:
109,56K
Vorrei condividere un consiglio per ottenere più pratica nella costruzione con l'IA — cioè, utilizzare blocchi di costruzione dell'IA per creare applicazioni o utilizzare assistenti alla codifica dell'IA per creare rapidamente applicazioni potenti: Se ti trovi con solo poco tempo per costruire, riduci l'ambito del tuo progetto fino a quando non puoi costruire qualcosa nel tempo che hai a disposizione.
Se hai solo un'ora, trova un piccolo componente di un'idea che ti entusiasma e che puoi costruire in un'ora. Con assistenti alla codifica moderni come Claude Code di Anthropic (il mio strumento di sviluppo preferito in questo momento), potresti rimanere sorpreso da quanto puoi fare anche in brevi periodi di tempo! Questo ti fa partire, e puoi sempre continuare il progetto in seguito.
Per diventare bravi a costruire con l'IA, la maggior parte delle persone deve (i) apprendere tecniche rilevanti, ad esempio seguendo corsi online sull'IA, e (ii) praticare la costruzione. Conosco sviluppatori che riflettono su idee per mesi senza effettivamente costruire nulla — anche io l'ho fatto! — perché sentiamo di non avere tempo per iniziare. Se ti trovi in questa posizione, ti incoraggio a continuare a ridurre l'ambito iniziale del progetto fino a quando non identifichi un piccolo componente che puoi costruire subito.
Lasciami illustrare con un esempio — uno dei miei tanti piccoli e divertenti progetti del fine settimana che potrebbero non andare da nessuna parte, ma di cui sono contento di aver fatto.
Ecco l'idea: Molte persone temono di parlare in pubblico. E parlare in pubblico è difficile da praticare, perché è complicato organizzare un pubblico. Quindi ho pensato che sarebbe interessante costruire un simulatore di pubblico per fornire un pubblico digitale di decine o centinaia di persone virtuali su un monitor e permettere a un utente di esercitarsi parlandoci.
Un sabato pomeriggio, mi sono trovato in una caffetteria con un paio d'ore da dedicare e ho deciso di provare il simulatore di pubblico. La mia familiarità con la codifica grafica è limitata, quindi invece di costruire un simulatore complesso di un grande pubblico e scrivere software di IA per simulare risposte appropriate del pubblico, ho deciso di ridurre significativamente l'ambito a (a) simulare un pubblico di una persona (che avrei potuto replicare in seguito per simulare N persone), (b) omettere l'IA e lasciare che un operatore umano selezionasse manualmente la reazione del pubblico simulato (simile al prototipo Wizard of Oz), e (c) implementare la grafica utilizzando un semplice avatar 2D.
Utilizzando un mix di diversi assistenti alla codifica, ho costruito una versione base nel tempo che avevo. L'avatar poteva muoversi leggermente e sbattere le palpebre, ma altrimenti utilizzava grafiche di base. Anche se era lontano da un sofisticato simulatore di pubblico, sono contento di averlo costruito. Oltre a far avanzare il progetto e permettermi di esplorare diversi design, ha ampliato la mia conoscenza delle grafiche di base. Inoltre, avere questo prototipo grezzo da mostrare agli amici mi ha aiutato a ottenere feedback dagli utenti che hanno plasmato le mie opinioni sull'idea del prodotto.
Ho sul mio laptop un elenco di idee di cose che penso sarebbero interessanti da costruire. La maggior parte di esse richiederebbe molto più tempo rispetto al numero limitato di ore che potrei avere per provare qualcosa in un dato giorno, ma riducendo il loro ambito, posso iniziare, e i progressi iniziali su un progetto mi aiutano a decidere se vale la pena investire ulteriormente. Come bonus, lavorare su una vasta gamma di applicazioni mi aiuta a praticare una vasta gamma di abilità. Ma soprattutto, questo fa uscire un'idea dalla mia testa e potenzialmente davanti a utenti prospettici per un feedback che consente al progetto di muoversi più velocemente.

295,57K
Nuovo Corso: ACP: Protocollo di Comunicazione degli Agenti
Impara a costruire agenti che comunicano e collaborano attraverso diversi framework utilizzando ACP in questo breve corso realizzato con BeeAI di @IBMResearch, e insegnato da @sandi_besen, Ingegnere di Ricerca AI e Responsabile Ecosistema presso IBM, e @nicholasrenotte, Responsabile Advocacy per Sviluppatori AI presso IBM.
Costruire un sistema multi-agente con agenti costruiti o utilizzati da diversi team e organizzazioni può diventare una sfida. Potresti dover scrivere integrazioni personalizzate ogni volta che un team aggiorna il design del proprio agente o cambia la propria scelta di framework di orchestrazione agentica.
Il Protocollo di Comunicazione degli Agenti (ACP) è un protocollo aperto che affronta questa sfida standardizzando il modo in cui gli agenti comunicano, utilizzando un'interfaccia RESTful unificata che funziona attraverso i framework. In questo protocollo, ospiti un agente all'interno di un server ACP, che gestisce le richieste da un client ACP e le passa all'agente appropriato. Utilizzare un'interfaccia client-server standardizzata consente a più team di riutilizzare agenti attraverso progetti. Rende anche più facile passare tra i framework, sostituire un agente con una nuova versione o aggiornare un sistema multi-agente senza rifattorizzare l'intero sistema.
In questo corso, imparerai a connettere agenti attraverso ACP. Comprenderai il ciclo di vita di un Agente ACP e come si confronta con altri protocolli, come MCP (Protocollo di Contesto del Modello) e A2A (Agente-a-Agente). Costruirai agenti conformi ad ACP e implementerai flussi di lavoro sia sequenziali che gerarchici di più agenti che collaborano utilizzando ACP.
Attraverso esercizi pratici, costruirai:
- Un agente RAG con CrewAI e lo incapsulerai all'interno di un server ACP.
- Un Client ACP per effettuare chiamate al server ACP che hai creato.
- Un flusso di lavoro sequenziale che collega un server ACP, creato con Smolagents, all'agente RAG.
- Un flusso di lavoro gerarchico utilizzando un agente router che trasforma le query degli utenti in compiti, delegati agli agenti disponibili attraverso i server ACP.
- Un agente che utilizza MCP per accedere agli strumenti e ACP per comunicare con altri agenti.
Concluderai importando i tuoi agenti ACP nella piattaforma BeeAI, un registro open-source per scoprire e condividere agenti.
ACP consente la collaborazione tra agenti tra team e organizzazioni. Alla fine di questo corso, sarai in grado di costruire agenti e flussi di lavoro ACP che comunicano e collaborano indipendentemente dal framework.
Iscriviti qui:
88,28K
Presentiamo "Costruire con Llama 4." Questo breve corso è stato creato con @Meta @AIatMeta e insegnato da @asangani7, Direttore dell'Ingegneria dei Partner per il team AI di Meta.
Il nuovo Llama 4 di Meta ha aggiunto tre nuovi modelli e introdotto l'architettura Mixture-of-Experts (MoE) nella sua famiglia di modelli a peso aperto, rendendoli più efficienti da servire.
In questo corso, lavorerai con due dei tre nuovi modelli introdotti in Llama 4. Il primo è Maverick, un modello con 400 miliardi di parametri, con 128 esperti e 17 miliardi di parametri attivi. Il secondo è Scout, un modello con 109 miliardi di parametri con 16 esperti e 17 miliardi di parametri attivi. Maverick e Scout supportano finestre di contesto lunghe fino a un milione di token e 10 milioni di token, rispettivamente. Quest'ultimo è sufficiente per supportare l'inserimento diretto anche di repository GitHub piuttosto grandi per l'analisi!
In lezioni pratiche, costruirai app utilizzando le nuove capacità multimodali di Llama 4, inclusa la ragionamento su più immagini e il grounding delle immagini, in cui puoi identificare elementi nelle immagini. Utilizzerai anche l'API ufficiale di Llama, lavorerai con le capacità di lungo contesto di Llama 4 e imparerai a conoscere i più recenti strumenti open-source di Llama: il suo strumento di ottimizzazione dei prompt che migliora automaticamente i prompt di sistema e il kit di dati sintetici che genera set di dati di alta qualità per il fine-tuning.
Se hai bisogno di un modello aperto, Llama è una grande opzione, e la famiglia Llama 4 è una parte importante del toolkit di qualsiasi sviluppatore GenAI. Attraverso questo corso, imparerai a chiamare Llama 4 tramite API, utilizzare i suoi strumenti di ottimizzazione e costruire funzionalità che spaziano tra testo, immagini e contesto ampio.
Iscriviti qui:
57,48K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari