Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

马天翼
Nach intensiver Nutzung von Vibe Coding für komplexe Projekte habe ich festgestellt: Derzeit fällt es der KI schwer, Probleme proaktiv aus der Perspektive der Gesamtarchitektur zu lösen. Sie löst eher Probleme, wenn sie auf sie stößt, und gerät manchmal in die Probleme selbst.
Für Menschen ohne Programmierhintergrund denke ich, dass dies eine unüberwindbare Kluft sein könnte. Ein kleines Demo zu machen, ist kein Problem, oder eine einfache APP zu erstellen, die keine spätere Wartung erfordert. Aber wenn es um kommerzielle und produktionsreife Projekte geht, führt es zu richtungsweisenden Fehlern, wenn viele Probleme nicht von der Essenz her gelöst werden und nicht aus der Perspektive der Gesamtarchitektur betrachtet werden. Das führt zu Bugs, die niemals behoben werden können. Das stellt die eigene Führungs- und Urteilsfähigkeit derjenigen, die AI Coding nutzen, auf die Probe.
Es mag etwas abstrakt sein, ich überlege, wie ich ein Beispiel geben kann:
Zum Beispiel ist es, ein Projekt zu leiten, als würde man die KI anweisen, ein Auto zum Ziel zu fahren. Zu Beginn stößt die KI auf zwei Straßen, eine kleine Straße und eine große Straße.
Zu diesem Zeitpunkt scheint es, dass die Wahl der ersten oder zweiten Straße für die KI fast gleich ist, sogar die erste Straße ist näher, schmaler, aber schneller; wenn man sich die Antwort der KI ansieht, macht das Sinn, und man stimmt zu, dass die KI die erste kleine Straße nimmt.
Mit den ständigen Veränderungen im Projekt stößt diese kleine Straße auf verschiedene Löcher, Staus, unpassierbare Stellen usw. Die KI wird dir natürlich verschiedene Lösungen anbieten, die jedes Mal das Problem lösen, aber sie wird auch auf neue Probleme stoßen. Am Ende stellt man fest, dass die Probleme anscheinend nie enden, je mehr man löst, desto chaotischer wird es. Es ist schon sehr gut, wenn man plötzlich erkennt, dass dieser Weg nicht funktioniert. Menschen ohne technischen Hintergrund könnten möglicherweise nicht einmal erkennen, dass die aktuelle Umsetzung im Wesentlichen falsch ist.
In Wirklichkeit muss man der KI vielleicht sagen, dass der Weg, den wir gerade auf dieser kleinen Straße gehen, falsch ist. Obwohl er schnell ist, ist die Methode nicht richtig, wir müssen die große Straße nehmen. Ich habe festgestellt, dass selbst Opus Schwierigkeiten hat, solch ein Denken zu entwickeln oder Probleme aus einer makroarchitektonischen Perspektive zu betrachten. Zumindest ist das derzeit nicht der Fall.
Ich muss vollständig durch die Fehler, die sie macht, nachdenken, ob es sich um einen grundlegenden Fehler handelt, um sie zu leiten und ihr zu sagen: "Du bist falsch abgebogen, du solltest darüber nachdenken, ob die Richtung, in die du gerade fährst, im Wesentlichen nicht stimmt."
Zusammenfassend gesagt, um es direkt zu sagen, basierend auf meinem aktuellen Urteil über komplexe Projekte: Das Wissen über AI Coding hat bereits die meisten professionellen Programmierer übertroffen, aber in Bezug auf Erfahrung und Urteilsvermögen hat es noch nicht das professionelle Niveau erreicht. Ich weiß nicht, ob in einem halben Jahr oder einem Jahr auch dieser Punkt ausgeglichen werden kann.
Anthropic hat offiziell den neuesten Kurs "Claude Code in Action" veröffentlicht, der insgesamt 10 Lektionen umfasst: Beginnend mit dem Verständnis, wie der Claude Code Code-Assistent funktioniert, gefolgt von der Einführung in die Installation und Konfiguration, das Management von Kontexten, Codeänderungen sowie die Nutzung fortgeschrittener Funktionen wie MCP-Server, GitHub-Integration und Hook-Implementierung.




102
Top
Ranking
Favoriten
