Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 delade inlägget
Efter att ha vridit och vänt på mig i nästan en vecka snubblade jag äntligen och återskapade Transformer. Känslan nu är att konstruktionen av Transformer definitivt är en produkt av genialitet + svett. Den är av epokgörande betydelse både teoretiskt och tekniskt. (Även om det är lite av en eftertanke att säga det nu)
59,4K
Min gick sönder i flera dagar, och bara den isländska noden var ansluten. Plötsligt blev det bättre den här eftermiddagen.

Jason Young23 aug. 19:41
Stegen gick sönder hela eftermiddagen och det kändes som om jag hade förlorat kontakten med världen
5,94K
AI är bara ett verktyg, och det beror på hur man använder det om det inte används på rätt sätt. Koden som skrivs av AI kan bara betraktas som godkänd. Den har läst för många bra och dåliga koder och har ingen egen smak, så den skriver ofta en del dålig kod. Den här koden ser bra ut som modulfragment, men när den placeras i en större arkitektur kommer den att lägga otaliga minor.

宝玉23 aug. 00:11
De mest avancerade AI-modellerna skriver kod som inte är dålig, och modulnivån överstiger vida den genomsnittliga nivån för mänskliga programmerare.
Kod mellan moduler begränsas av längden på kontextfönstret och kan kräva mänsklig hjälp vid designplanering, och om projektstrukturen är rimlig kan AI också återanvända befintlig kod för att hålla den TORR
6,02K
Det är inte så att AI inte kan läsa, men den kan inte komma ihåg det. När kan vi verkligen förverkliga minnet i modellen för att bryta igenom kontextens begränsningar.

geniusvczh22 aug. 18:58
Efter att ha tänkt efter noga är anledningen till att AI skriver kod dåligt inte för att han inte kan skriva, utan för att han inte kan läsa. Folk tittar på många till synes orelaterade saker på grund av en funktion, men det är dessa till synes orelaterade saker som ger dig möjlighet att hålla projektet TORRT. För att AI ska bli en grundpelare måste den först lära sig detta 🤪
2,36K
Har du någonsin märkt att elever som använder AI-programmering har blivit mer upptagna när de använder AI?
Tidigare baserades ett krav på två veckor, från att beskriva kraven, bilda ett team, testa produktens front-end och back-end, mobilisera ett gäng människor, till att slutföra arbetet.
Nu kan en person göra det på en natt.
Men förr i tiden kunde man använda ursäkten att vänta på laget och passa på att fiska. Jag kan inte röra den nu. 😶🌫️
66,83K
De offergåvor som äts av dem som svälter är den som hedras förtjänst.

garrulous abyss🌈22 aug. 16:58
För att inte tala om att det är en bodhisattvas.
Om du svälter ihjäl i det vilda... Jag såg graven vid sidan av vägen, och det ropades på hyllningar. Du bugar och säger: "Jag är ledsen, jag svälter ihjäl, ta en tribut för att äta." Jag tror inte att någon eller spöken kommer att skämma ut dig...

2,22K
När ett fält börjar diskutera filosofi betyder det att ett stadium går mot sitt slut. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 aug. 06:53
Hur upplever du att forskningen inom AI-teknik blir mer och mer filosofisk i språket?

4,83K
En enda trasa är produkten av den ursprungliga förbättringen. Mitt nuvarande tillvägagångssätt är att implementera RAG som MCP, vilket ger två API:er, ASK och FETCH, och hämtningen använder fortfarande den traditionella RAG-mekanismen, vilket utökar läsningen för att låta AI-anropet hämta läsa sammanhanget före och efter. Mekaniskt liknande cline grep omläsning av filer.

宝玉21 aug. 07:39
Jag håller helt med:1. Parallellt samarbete mellan flera agenter är inte lika stabilt som en enda tråd. 2. RAG är inte lika tillförlitlig som traditionell sökning; 3. Ju fler instruktioner som finns i prompten, desto mer vet modellen inte hur den ska välja.
——Den ursprungliga översättningen är som följer——
På vägen mot att bygga AI-agenter @Cline vårt team identifierat tre "tänkande virus". Det så kallade "tankeviruset" är de frestande idéer som låter väldigt smarta men som inte fungerar alls i praktiken.
De tre virusen är:
* Orkestrering med flera agenter
* Hämtning av Augmented Generation (RAG)
* Ju fler instruktioner = desto bättre effekt
Låt oss ta reda på det!
1. Samarbete mellan flera agenter
Den typ av scen som utspelar sig i en science fiction-film - "rear agents, ammunitionsagenter, analysagenter, kommandoagenter" - där man skickar iväg en stor grupp underagenter och slutligen summerar resultaten - låter riktigt coolt. Men verkligheten är att den stora majoriteten av användbart agentarbete är enkeltrådat.
Komplexa samarbetsprocesser levererar sällan verkligt värde och skapar ofta kaos. Du vet, det är svårt nog att få modellen att fungera stabilt i en enda tråd, än mindre hantera parallell samarbetslogik. Detta ökar inte bara komplexiteten i implementeringen, utan gör också förståelsen och beslutsprocessen för modellen extremt komplex.
2. Använd RAG för att bygga agenter
RAG, eller Retrieval Augmented Generation, är också ett tankevirus. Det ser kraftfullt ut i teorin, men i praktiken, särskilt i agentscenarier, är till och med grundläggande textsökningskommandon som GREP ibland bättre än det.
Varför bleknar RAG:s aura i det faktiska agentarbetsflödet? Eftersom den information som hämtas ofta är fragmenterad och inte kan låta modellen bilda en sammanhängande och användbar "förståelse".
En bättre metod är nästan alltid att låta modellen lista filerna på egen hand, söka på ett grep-liknande sätt och sedan öppna och läsa hela filen (precis som en människa). Det @Cline-teamet började göra detta tidigt, och sedan såg vi att @Amp – Research Preview och @Cursor – också gick över till detta mer pragmatiska tillvägagångssätt.
3. Fler instruktioner = desto bättre effekt
Det finns en utbredd missuppfattning om att man blir smartare om man samlar på sig fler och fler "instruktioner" i systemprompter. Detta är helt fel.
Att "vattna" uppmaningen kommer bara att förvirra modellen, eftersom fler instruktioner tenderar att leda till motstridiga förslag och informationsöverbelastning.
Som ett resultat måste du spela en omgång "whack-a-mole" och ständigt mixtra med alla möjliga konstiga beteenden hos modellen istället för att få riktigt användbara resultat. För de flesta av dagens banbrytande modeller är det bästa sättet att komma ur vägen att inte skrika på dem i ett försök att styra dem i en viss riktning. Var snäll och vårda varje ord (eller token).
På det hela taget är alla tre av ovanstående idéer mycket frestande. Om du inte arbetar med AI hela dagen kanske du tror att de alla är vettiga – men det gör de inte. I takt med att kapaciteten hos de underliggande modellerna förbättras kan vår uppfattning om dessa metoder förändras i framtiden.
6,22K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda