等等,人们真的会通过像这样开始提示LLM吗: "你是一个专家程序员 ..." 或者 "绝对不要做某事" 希望模型会更顺从地遵循这些陈述吗? (这有效吗?)😅