Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich habe den Großteil meines Sonntags damit verbracht, diesen Seitenleitfaden von Anthropic zu lesen.
Es ist im Grunde ihre vollständige technische Analyse, wie man Fähigkeiten für Claude aufbaut.
Einige Erkenntnisse, die ich teilen möchte,
das Erste, was grundlegend ist, und ich schätze, die meisten von euch wissen es, ist, wie viel Zeit wir alle damit verschwenden, uns selbst gegenüber der KI zu wiederholen.
Jeder neue Chat beginnt auf die gleiche Weise, indem man seinen Ton erklärt, seinen Stil erklärt, erklärt, wie man die Dinge erledigt.
Immer wieder.
Stattdessen ist die Lösung von Anthropic etwas, das sie Fähigkeiten nennen.
Im Grunde lehrst du die KI einmal. Deinen Ton, deinen Arbeitsablauf, deine Regeln. Speichere es in einem Ordner und jetzt weiß jedes Gespräch bereits, wie du arbeitest.
Die zweite Sache, die ich gelernt habe, ist etwas, das Anthropic tatsächlich selbst zugibt.
Die KI ist faul, es sei denn, du sagst ihr, dass sie es nicht sein soll.
Ihre Modelle neigen dazu, Schritte zu überspringen oder Antworten zu überstürzen, es sei denn, du sagst ihnen ausdrücklich, sie sollen langsamer machen.
Ihr eigener Vorschlag ist buchstäblich, ihr zu sagen... nimm dir Zeit, sei gründlich, überspringe keine Schritte.
Klingt einfach, aber sobald du das hinzufügst, verbessert sich die Qualität tatsächlich erheblich.
Die dritte Sache, die mir im Gedächtnis geblieben ist, ist die Idee, dass man der KI nicht für Genauigkeitsprüfungen vertrauen sollte.
Anthropic sagt in dem Leitfaden etwas sehr Klartextliches... Sprachmodelle interpretieren Dinge.
Code überprüft Dinge.
Wenn du also etwas validiert, berechnet oder richtig überprüft haben möchtest, frage nicht die KI, es zu durchdenken... bitte sie stattdessen, ein Skript auszuführen.
...
Top
Ranking
Favoriten
