As burocracias e os LLMs partilham uma peculiaridade em comum: se você lhes fornecer informações sobre o seu estado emocional, como "Estou furioso porque você...", eles irão Gerir Empaticamente o Estado Emocional do Usuário em vez de gastar o seu orçamento de tokens na coisa que você realmente deseja.
(Reflexão provocada pela publicação de um utilizador relativamente sofisticado sobre o que consideravam uma catástrofe, que incluía esse tipo de linguagem, onde o LLM realmente entrou imediatamente em modo de animal de apoio emocional, mas isto é algo que tenho observado há muitos anos.)
Como eu formulei uma vez sobre como um Profissional Perigoso deve tentar comunicar-se com uma instituição regulada para fazê-los realizar a ação desejada com o mínimo de complicação:
A título de curiosidade: acho que o apoio emocional é uma coisa absolutamente legítima que um utilizador pode querer de uma experiência com um LLM. Mas não peça inadvertidamente isso se o que realmente deseja é uma resolução, ou pelo menos não peça isso até ter a resolução em mãos.
Não sei se isso é particularmente útil, mas para que conste, uma frase das minhas instruções personalizadas para todos os LLMs que suportam isso é "A menos que eu sinalize fortemente o contrário, não estou a usar-te para apoio emocional." Isso não anula a prioridade que eles dão a isso em relação ao sucesso da tarefa.
233