Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 erneut gepostet
Nach fast einer Woche des Herumprobierens habe ich endlich den Transformer mühsam nachgebaut. Jetzt habe ich das Gefühl, dass die Konstruktion des Transformers definitiv das Produkt von Genie und harter Arbeit ist. Sowohl theoretisch als auch praktisch hat es eine bahnbrechende Bedeutung. (Obwohl es jetzt ein bisschen wie eine Nachbetrachtung wirkt)
59,4K
Mein Gerät war mehrere Tage lang kaputt, nur die Knoten in Island konnten verbunden werden. Heute Nachmittag hat es plötzlich wieder funktioniert.

Jason Young23. Aug., 19:41
Die Leiter war den ganzen Nachmittag kaputt, ich fühlte mich, als hätte ich den Kontakt zur Welt verloren.
5,93K
AI ist nur ein Werkzeug, und wie gut es genutzt wird, hängt davon ab, wie man es anwendet. Der von AI geschriebene Code kann nur als ausreichend betrachtet werden. Es hat zu viele qualitativ unterschiedliche Codes gesehen und hat keinen eigenen Geschmack, weshalb es oft schlechten Code produziert. Diese Codes sehen als Modulfragmente unproblematisch aus, aber in einer größeren Architektur können sie zahlreiche Probleme verursachen.

宝玉23. Aug., 00:11
Die neuesten AI-Modelle schreiben keinen schlechten Code, das Modulniveau übertrifft bei weitem das durchschnittliche Niveau menschlicher Programmierer. Wenn der generierte Code schlecht ist, sollte man zuerst überprüfen, welches Modell gewählt wurde, ob der Kontext ausreichend ist und ob die Eingabeaufforderungen optimiert werden müssen.
Bei modulübergreifendem Code, der durch die Länge des Kontextfensters eingeschränkt ist, könnte es notwendig sein, dass Menschen bei der Planung und Gestaltung helfen. Wenn die Projektstruktur sinnvoll ist, kann die AI ebenfalls bestehenden Code wiederverwenden, um DRY (Don't Repeat Yourself) zu gewährleisten.
6,01K
KI kann zwar lesen, aber sich nicht erinnern. Erst wenn wir wirklich Gedächtnis im Modell implementieren, können wir die Einschränkungen des Kontexts überwinden.

geniusvczh22. Aug., 18:58
Wenn man genau darüber nachdenkt, liegt es nicht daran, dass KI nicht programmieren kann, sondern dass sie nicht lesen kann. Menschen schauen sich viele scheinbar nicht verwandte Dinge an, um ein Feature zu erstellen, aber genau diese scheinbar nicht verwandten Dinge geben dir die Möglichkeit, das Projekt DRY zu halten. Damit KI zu einer tragenden Säule werden kann, muss sie zuerst das lernen.
2,35K
Für die Studenten, die AI-Programmierung verwendet haben, ist euch aufgefallen, dass man mit AI sogar noch beschäftigter ist? Früher hat es zwei Wochen gedauert, um einen Bedarf zu beschreiben, ein Team zusammenzustellen, Frontend und Backend zu testen, und eine Menge Leute zu mobilisieren, um die Arbeit abzuschließen.
Jetzt kann eine Person das in einer Nacht erledigen.
Aber früher konnte man sich mit Ausreden herausreden und auf das Team warten, um die Zeit zu nutzen. Jetzt geht das nicht mehr. 😶🌫️
66,82K
Die Angebote, die von den Hungernden gegessen werden, sind das Verdienst der Person, die geehrt wird.

garrulous abyss🌈22. Aug., 16:58
Sag nicht einmal, dass es ein Bodhisattva ist.
Wenn du in der Wildnis fast verhungert bist... und du siehst am Straßenrand einen Grabstein mit Opfergaben. Du verbeugst dich und sagst: "Entschuldigung, ich bin fast verhungert, ich nehme mir eine Opfergabe zum Essen." Ich glaube nicht, dass irgendjemand oder ein Geist dir Schwierigkeiten machen würde...

2,2K
Wenn ein Bereich beginnt, über Philosophie zu diskutieren, bedeutet das, dass eine Phase bald zu Ende geht. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22. Aug., 06:53
Warum habe ich das Gefühl, dass die Forschung im Bereich der KI-Engineering immer mehr in Richtung Sprachphilosophie geht?

4,82K
Ein einzelner RAG ist das Produkt der ersten Generation von Verbesserungen. Mein aktueller Ansatz besteht darin, RAG als MCP zu implementieren und zwei APIs anzubieten: Ask und Fetch. Die Abfrage erfolgt weiterhin über den traditionellen RAG-Mechanismus, während das erweiterte Lesen es der KI ermöglicht, Fetch aufzurufen, um den Kontext davor und danach zu lesen. Mechanisch ähnelt es dem erneuten Lesen von Dateien mit Cline Grep.

宝玉21. Aug., 07:39
Ich stimme voll und ganz zu: 1. Multi-Agenten-Kooperation ist nicht so stabil wie Einzel-Thread; 2. RAG ist unzuverlässig und schlechter als traditionelle Suche; 3. Je mehr Anweisungen in den Eingabeaufforderungen, desto weniger weiß das Modell, was es auswählen soll.
—— Die Übersetzung des ursprünglichen Tweets lautet ——
Auf dem Weg zur Entwicklung von AI-Agenten hat unser Team @Cline drei Arten von "Denkviren" identifiziert. Diese "Denkviren" sind verlockende Ideen, die zwar klug klingen, in der Praxis jedoch völlig unbrauchbar sind.
Diese drei Viren sind:
* Multi-Agenten-Kooperation (Multi-Agent Orchestration)
* Retrieval Augmented Generation (RAG)
* Je mehr Anweisungen, desto besser das Ergebnis
Lassen Sie uns das näher betrachten!
1. Multi-Agenten-Kooperation
Die Szenen aus Science-Fiction-Filmen – "Hintergrund-Agenten, Versorgungs-Agenten, Analyse-Agenten, Kommandanten-Agenten" schicken eine große Gruppe von Unter-Agenten los, um die Ergebnisse am Ende zusammenzufassen – klingen wirklich cool. Aber die Realität ist, dass die meisten nützlichen Agentenarbeiten Einzel-Thread-basiert sind.
Komplexe Kooperationsprozesse bringen selten echten Wert, sondern verursachen oft Chaos. Man muss wissen, dass es schon schwierig genug ist, das Modell in einem Einzel-Thread stabil arbeiten zu lassen, ganz zu schweigen von der Handhabung paralleler Kooperationslogik. Dies erhöht nicht nur die Komplexität der Implementierung, sondern macht auch den Verständnis- und Entscheidungsprozess des Modells außergewöhnlich kompliziert.
2. Verwendung von RAG zur Erstellung von Agenten
RAG, also Retrieval Augmented Generation, ist ebenfalls ein Denkvirus. Theoretisch sieht es sehr mächtig aus, aber in der Praxis, insbesondere im Agentenszenario, ist manchmal sogar GREP, dieser grundlegende Textsuchbefehl, nützlicher als es.
Warum verblasst der Glanz von RAG in den tatsächlichen Arbeitsabläufen von Agenten? Weil die abgerufenen Informationen oft fragmentarisch sind und das Modell nicht in der Lage ist, ein kohärentes, nützliches "Verständnis" zu entwickeln.
Eine bessere Methode ist fast immer: Lassen Sie das Modell selbst die Dateien auflisten, suchen Sie auf eine ähnliche Weise wie grep und öffnen und lesen Sie die gesamte Datei (wie ein Mensch). Das @Cline-Team hat damit frühzeitig begonnen, und später sahen wir, dass @Amp – Research Preview und @Cursor ebenfalls zu dieser pragmatischeren Methode übergegangen sind.
3. Je mehr Anweisungen, desto besser das Ergebnis
Es gibt ein weit verbreitetes Missverständnis: Wenn man immer mehr "Anweisungen" in die Systemaufforderung (system prompt) packt, wird das Modell intelligenter. Das ist völlig falsch.
Das "Wassertrinken" der Eingabeaufforderungen verwirrt das Modell nur, da mehr Anweisungen oft zu widersprüchlichen Vorschlägen und Informationsüberlastung führen.
Das Ergebnis ist, dass man ständig die seltsamen Verhaltensweisen des Modells reparieren muss, als würde man ein "Wack-a-Mole"-Spiel spielen, anstatt wirklich nützliche Ausgaben zu erhalten. Für die meisten modernen Spitzenmodelle ist die beste Methode, ihnen nicht im Weg zu stehen, anstatt daneben zu stehen und ständig zu schreien, um sie in eine bestimmte Richtung zu lenken. Schätzen Sie jedes Ihrer Worte (oder Tokens).
Zusammenfassend lässt sich sagen, dass all diese drei Ideen äußerst verlockend sind. Wenn Sie nicht den ganzen Tag mit AI zu tun haben, könnten Sie denken, dass sie alle sehr sinnvoll sind – aber das ist nicht der Fall. Natürlich könnte sich unsere Sicht auf diese Methoden in Zukunft ändern, wenn sich die Fähigkeiten der zugrunde liegenden Modelle verbessern.
6,21K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten