L'iniezione di prompt è ingegneria sociale per i LLM. Seguono le istruzioni. Gli attaccanti sfruttano questo dando loro istruzioni dannose. In questo episodio di The Immunefi Show, @sockdrawermoney spiega perché questo compromesso è al centro dell'AI e perché chiama l'iniezione di prompt il peccato originale dei LLM.