Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Chain of Thought is dood.
Ik heb net Skeleton of Thought prompting getest en het halveert de responstijd bij gestructureerde taken met scherpere outputs.
De inzicht heeft mijn mentale model van hoe AI tekst zou moeten genereren vernietigd.
CoT dwingt het model om tegelijkertijd te denken en te schrijven. Punt 1 moet af zijn voordat Punt 2 kan beginnen. Punt 2 moet af zijn voordat Punt 3 kan beginnen. Elke token wordt geblokkeerd door de token ervoor.
Dat is niet hoe experts informatie daadwerkelijk structureren.
Een consultant van McKinsey schrijft een rapport niet lineair. Ze schetsen eerst elke sectie, en ontwikkelen dan elk onderdeel onafhankelijk. Een professor maakt geen college-aantekeningen van begin tot eind. Ze schetsen de onderwerpen en vullen die dan in.
SoT komt daar eindelijk mee overeen.
Fase 1 - Skelet:
Het model schrijft eerst een blote schets van elk punt. Geen uitweidingen. Gewoon structuur. Snel.
Fase 2 - Parallel Invullen:
Elk skeletpunt wordt onafhankelijk en gelijktijdig uitgebreid. Punt 3 wacht niet op Punt 2. Punt 5 wacht niet op Punt 4.
Een verkeerde tak vertraagt niet elke tak erna.
De exacte promptstructuur:
"Schrijf eerst een beknopt skelet van je antwoord als een lijst van kernpunten. Breid vervolgens elk punt onafhankelijk en volledig uit. Formaat: [Skelet] gevolgd door [Punt 1], [Punt 2], enz."
Dat is het. Dat is de hele ontgrendeling.
Waar SoT domineert:...

Boven
Positie
Favorieten
