RIP Chain of Thought. Acabei de testar o prompting Skeleton of Thought e está a reduzir a latência de resposta pela metade em tarefas estruturadas, enquanto melhora a qualidade da saída. Um artigo mudou a forma como penso sobre a geração de texto com IA. CoT força o modelo a pensar e escrever simultaneamente. O Ponto 1 deve terminar antes que o Ponto 2 comece. O Ponto 2 antes do Ponto 3. Cada token bloqueado pelo token anterior. Os especialistas não trabalham assim. Um consultor da McKinsey delineia cada seção primeiro, depois desenvolve cada uma de forma independente. Um professor esboça os tópicos e depois os preenche. SoT corresponde a isso. Fase 1 - Esqueleto: O modelo escreve um esboço básico de cada ponto. Sem elaboração. Apenas estrutura. Fase 2 - Preenchimento Paralelo: Cada ponto do esqueleto expande-se de forma independente. O Ponto 3 não espera pelo Ponto 2. Um ramo errado não atrasa todos os ramos seguintes. O prompt exato: "Primeiro, escreva um esqueleto conciso da sua resposta como uma lista de pontos-chave. Depois, expanda cada ponto de forma independente e completa. Formato: [Esqueleto] seguido por [Ponto 1], [Ponto 2], etc." Onde SoT domina: → Guias e tutoriais → Listas e quebras classificadas...