Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 ha ripubblicato
Dopo quasi una settimana di tentativi e difficoltà, sono finalmente riuscito a riprodurre il Transformer. La sensazione attuale è che la costruzione del Transformer sia assolutamente il risultato di genio e sudore. Ha un significato epocale sia in teoria che in ingegneria. (Anche se dirlo ora sembra un po' tardivo)
59,4K
Il mio non funzionava da diversi giorni, solo i nodi in Islanda riuscivano a connettersi. Oggi pomeriggio è improvvisamente tornato a funzionare.

Jason Young23 ago, 19:41
La scala è rotta da un pomeriggio, mi sento come se avessi perso il collegamento con il mondo.
5,92K
L'AI è solo uno strumento, e il suo utilizzo dipende da come viene impiegato. Il codice scritto dall'AI può essere considerato solo sufficiente. Ha visto troppi codici di qualità variabile e non ha un proprio gusto, quindi spesso scrive codice di bassa qualità. Questi codici, presi come frammenti di modulo, non sembrano avere problemi, ma inseriti in una grande architettura possono nascondere numerose insidie.

宝玉23 ago, 00:11
I modelli AI più avanzati scrivono codice in modo eccellente, il livello a livello di modulo supera di gran lunga la media dei programmatori umani. Se il codice generato è scadente, prima controlla quale modello è stato scelto, se il contesto è sufficiente e se le parole chiave devono essere ottimizzate.
Il codice tra moduli, limitato dalla lunghezza della finestra di contesto, potrebbe necessitare di un aiuto umano per la progettazione e la pianificazione; se la struttura del progetto è ragionevole, l'AI può comunque riutilizzare il codice esistente per mantenere il principio DRY.
6K
L'IA non è che non possa leggere, ma è che non riesce a ricordare ciò che legge. Solo quando si realizzerà una vera memoria all'interno del modello, si potrà superare i vincoli del contesto.

geniusvczh22 ago, 18:58
Dopo averci pensato attentamente, il motivo per cui l'AI scrive codice male non è perché non sappia scrivere, ma perché non sa leggere. Le persone tendono a guardare molte cose apparentemente non correlate per realizzare una funzionalità, ma sono proprio queste cose che sembrano non avere nulla a che fare che ti offrono la possibilità di mantenere il progetto DRY. Perché l'AI possa diventare un pilastro, deve prima imparare questo.
2,34K
Gli studenti che usano la programmazione AI, hanno notato che, con l'uso dell'AI, sono diventati addirittura più occupati?
Prima, per un requisito, dalla descrizione del requisito, alla formazione del team, al front-end e back-end del prodotto, ai test, ci volevano due settimane per completare il lavoro, mobilitando un sacco di persone.
Ora, una sola persona può risolvere tutto in una notte.
Ma prima si poteva giustificare il ritardo aspettando il team, approfittando per non fare nulla. Ora non si può più fare. 😶🌫️
66,81K
Le offerte consumate da coloro che stanno morendo di fame sono il merito della persona che viene onorata.

garrulous abyss🌈22 ago, 16:58
Non parliamo nemmeno di Bodhisattva.
Se sei in mezzo alla natura e stai per morire di fame... e vedi una tomba lungo la strada con delle offerte. Ti inchini e dici "Scusa, sto per morire di fame, posso prendere un'offerta da mangiare". Non credo che nessuno o nessun fantasma ti metterebbe in difficoltà...

2,2K
Quando un campo inizia a discutere di filosofia, significa che una fase sta per concludersi. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 ago, 06:53
Perché ho l'impressione che la ricerca sull'ingegneria AI stia diventando sempre più orientata verso la filosofia del linguaggio?

4,81K
Il rag singolo è il prodotto della prima generazione di miglioramenti. La mia attuale strategia è implementare il rag come mcp, fornendo due API: ask e fetch. La ricerca continua a utilizzare il meccanismo tradizionale del rag, mentre la lettura estesa consente all'AI di chiamare fetch per leggere il contesto precedente e successivo. Meccanicamente, è simile a cline grep che legge nuovamente il file.

宝玉21 ago, 07:39
Profondamente d'accordo: 1. La collaborazione parallela tra più agenti non è stabile come un singolo thread; 2. RAG non è affidabile e non è migliore della ricerca tradizionale; 3. Più istruzioni ci sono nei prompt, meno il modello sa come scegliere.
——Traduzione originale——
Nel percorso di costruzione di agenti intelligenti (AI Agent), il nostro team @Cline ha identificato tre "virus mentali". I cosiddetti "virus mentali" sono quelle idee seducenti che sembrano brillanti, ma che in pratica non funzionano affatto.
Questi tre virus sono:
* Collaborazione tra più agenti (Multi-Agent Orchestration)
* Generazione aumentata da ricerca (RAG)
* Più istruzioni = migliori risultati
Esploriamo insieme!
1. Collaborazione tra più agenti
Quella scena da film di fantascienza — "agenti di supporto, agenti di approvvigionamento, agenti di analisi, agenti di comando" che inviano un gran numero di sottogruppi di agenti, per poi riassumere i risultati — suona davvero fantastica. Ma la realtà è che la maggior parte del lavoro utile degli agenti è a thread singolo.
Processi di collaborazione complessi raramente portano a un vero valore, anzi spesso creano confusione. È importante sapere che far funzionare il modello in modo stabile in un singolo thread è già abbastanza difficile, figuriamoci gestire quelle logiche di collaborazione parallela. Questo non solo aumenta la complessità dell'implementazione, ma rende anche il processo di comprensione e decisione del modello eccezionalmente complesso.
2. Costruire agenti con RAG
RAG, ovvero Generazione Aumentata da Ricerca (Retrieval Augmented Generation), è anch'esso un virus mentale. In teoria sembra molto potente, ma nella pratica, specialmente nello scenario degli agenti, a volte comandi di ricerca di base come GREP sono più utili.
Perché l'aura di RAG svanisce nei flussi di lavoro reali degli agenti? Perché le informazioni recuperate sono spesso frammentate e non consentono al modello di formare una "comprensione" coerente e utile.
Un metodo migliore è quasi sempre: lasciare che il modello elenchi i file, cercando in modo simile a grep, e poi aprire e leggere l'intero file (proprio come farebbe un umano). Il team @Cline ha iniziato a farlo molto tempo fa, e successivamente abbiamo visto che @Amp — Research Preview e @Cursor si sono anche orientati verso questo approccio più pragmatico.
3. Più istruzioni = migliori risultati
C'è un malinteso molto diffuso: accumulare sempre più "istruzioni" nel prompt di sistema (system prompt) renderà il modello più intelligente. Questo è completamente sbagliato.
Aggiungere "acqua" ai prompt non fa altro che confondere il modello, poiché più istruzioni spesso portano a conflitti tra suggerimenti e sovraccarico di informazioni.
Il risultato è che ti ritrovi a dover riparare continuamente i vari comportamenti strani del modello, come in un gioco di "colpisci il topo", piuttosto che ottenere output realmente utili. Per la maggior parte dei modelli all'avanguardia di oggi, il miglior approccio è non ostacolarli, piuttosto che stare a urlare incessantemente per cercare di indirizzarli in una direzione specifica. Valuta ogni tua parola (o Token).
In sintesi, queste tre idee sono tutte molto seducenti. Se non hai a che fare con l'AI tutto il giorno, potresti trovarle tutte molto sensate — ma non è così. Certamente, con il miglioramento delle capacità dei modelli sottostanti, la nostra opinione su questi metodi potrebbe cambiare in futuro.
6,21K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari