Prompt-Injection ist Social Engineering für LLMs. Sie folgen Anweisungen. Angreifer nutzen das aus, indem sie ihnen bösartige Anweisungen geben. In dieser Episode von The Immunefi Show erklärt @sockdrawermoney, warum dieser Kompromiss im Kern von KI sitzt und warum er Prompt-Injection die Ursünde der LLMs nennt.