Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

God of Prompt
Heilige Scheiße… Meta hat gerade ein Papier veröffentlicht, das die Erzählung "KI wird sich selbst verbessern und uns hinter sich lassen" auf den Kopf stellt, und die Implikationen sind gewaltig 😳
Hier ist der verrückte Teil:
Sie argumentieren, dass der sicherste und schnellste Weg zur Superintelligenz überhaupt keine selbstverbessernde KI ist.
Es ist die gemeinsame Verbesserung von Menschen und KI, die zusammen als gemeinsames System KI-Forschung betreiben.
Nicht "KI ersetzt Forscher."
Nicht "KI schreibt sich selbst im Dunkeln um."
Sondern KI, die ausdrücklich dafür gebaut ist, mit Menschen bei Ideenfindung, Benchmarks, Experimenten, Fehleranalysen, Ausrichtungsarbeiten und Systemdesign zusammenzuarbeiten.
Und wenn man die Details liest, wird offensichtlich, warum das wichtig ist:
→ Selbstverbesserung vs. gemeinsame Verbesserung als zwei völlig unterschiedliche Welten:
Selbstverbesserung schließt Menschen aus.
Gemeinsame Verbesserung schafft eine Schleife, in der Menschen die KI verbessern, die KI die menschliche Forschung verbessert und beide Seiten gemeinsam aufsteigen.
→ Tabelle 1 auf Seite 3 erklärt, was "KI-Forschungszusammenarbeit" tatsächlich bedeutet:
gemeinsames Entwerfen von Benchmarks
gemeinsames Durchführen von Experimenten
gemeinsames Debuggen von Fehlern
gemeinsames Entwickeln von Sicherheitsmethoden
gemeinsames Schreiben von Arbeiten
gemeinsames Bauen von Infrastrukturen
Es ist buchstäblich die gesamte Forschungspipeline, aber geteilt.
→ Jede aktuelle Selbstverbesserungstechnik (synthetische Daten, Selbstbelohnung, Selbstspiel, NAS usw.) hat blinde Flecken: Belohnungshacking, Drift, Zerbrechlichkeit, fehlende menschliche Vorannahmen, null Transparenz.
Gemeinsame Verbesserung umgeht die Fehlerquellen, indem sie Menschen im Denkprozess einbezieht.
Die Kernidee trifft hart:
Selbstverbessernde KI rennt unüberwacht voraus.
Gemeinsam verbessernde KI zieht die Menschheit mit sich nach oben.
Und die größere Behauptung:
Co-Superintelligenz ist nicht "KI, die superintelligent wird."
Es sind Menschen + KI, die zusammen superintelligent werden — weil beide Seiten lernen, stillschweigendes Wissen ansammeln und innerhalb desselben Forschungszyklus iterieren.
Wenn dieses Paradigma Bestand hat, ist die Zukunft nicht "AGI vs. Menschheit."
Es ist ein verschmolzenes Forschungsorganismus.
Eine kollektive Intelligenz.
Dieses Papier fühlt sich wie der klarste Plan für eine KI-Zukunft an, die nicht in einem Ausrichtungs-Knife-Edge endet.
Es argumentiert, dass wir nicht schneller als die Superintelligenz sein müssen.
Wir müssen mit ihr ko-evolvieren.
Und ehrlich? Es macht viel mehr Sinn als die Alternativen.

45,85K
MIT-Forscher haben gerade bewiesen, dass Prompt Engineering eine soziale Fähigkeit ist, keine technische.
Und diese Erkenntnis bricht alles, was wir über die Arbeit mit KI zu wissen glaubten.
Sie analysierten 667 Personen, die Probleme mit KI lösten. Sie verwendeten bayesianische Statistiken, um zwei verschiedene Fähigkeiten in jeder Person zu isolieren: die Fähigkeit, Probleme allein zu lösen, und die Fähigkeit, Probleme mit KI zu lösen.
Hier ist, was das gesamte Framework erschütterte.
Die beiden Fähigkeiten korrelieren kaum.
Ein genialer Problemlöser zu sein, sagt dir fast nichts darüber, wie gut du mit KI zusammenarbeiten wirst. Es sind separate, messbare, unabhängig funktionierende Fähigkeiten.
Das bedeutet, dass jeder Kurs zum Prompt Engineering, jede Mega-Prompt-Vorlage, jeder "10 Hacks für bessere Ergebnisse"-Thread grundsätzlich missversteht, was tatsächlich passiert, wenn du gute Ergebnisse erzielst.
Die Vorlagen funktionieren. Aber nicht aus dem Grund, den jeder denkt.
Sie funktionieren, weil sie dich zufällig dazu zwingen, etwas ganz anderes zu üben.
Die Fähigkeit, die tatsächlich den Erfolg mit KI vorhersagt, hat nichts mit Schlüsselwörtern oder Struktur oder Chain-of-Thought-Formatierung zu tun.
Es ist die Theorie des Geistes. Deine Fähigkeit, zu modellieren, was ein anderer Agent weiß, nicht weiß, glaubt, braucht. Ihre Verwirrung vorherzusehen, bevor sie passiert. Informationslücken zu überbrücken, von denen du nicht einmal wusstest, dass sie existieren.
Und hier ist der Teil, der das Spiel komplett verändert: Sie bewiesen, dass es sich nicht um ein statisches Merkmal handelt, das du entweder hast oder nicht.
Es ist dynamisch. Aktiviert. Etwas, das du ein- und ausschalten kannst.
Moment-zu-Moment-Änderungen in dem Maß, wie viel kognitive Anstrengung du in die Perspektivübernahme steckst, beeinflussten direkt die Qualität der KI-Antworten auf individuelle Prompts.
Das bedeutet, wenn du tatsächlich inne hältst und denkst: "Was muss diese KI wissen, das ich als selbstverständlich ansehe" zu einer bestimmten Frage, erhältst du messbar bessere Antworten auf diese Frage.
Die Fähigkeit ist etwas, das du hoch- und runterregeln kannst. Üben. Stärken. Wie ein Muskel, von dem du nicht wusstest, dass du ihn hattest.
Es wird besser, je mehr du KI wie einen Mitspieler mit unvollständigen Informationen behandelst, anstatt wie eine Suchmaschine, die du mit den richtigen magischen Worten hacken willst.

265,79K
Top
Ranking
Favoriten

