Link-Falle: GenAI Prompt Injection-Angriffe
Prompt Injection versucht das Verhalten generativer KI zu manipulieren, auch ohne umfangreiche Berechtigungen für den Täter. Mithilfe von bösartigen Anweisungen und eingefügten Inhalten werden sensible Daten abgegriffen. Wie funktioniert dies?