PKM·Wiki

KI & Gesellschaft

Promptware – Wie KI-Systeme mit bösartigen Anweisungen angegriffen werden

Aktualisiert 2026-04-20 · Version 1.0

Promptware – Wie KI-Systeme mit bösartigen Anweisungen angegriffen werden

Mit dem KI-Boom werden immer mehr Systeme auf Basis großer Sprachmodelle (LLMs) betrieben und an produktive Infrastruktur angebunden. Damit wächst auch die Angriffsfläche: Sicherheitsforscher beobachten eine neue Art von Malware, die ausschließlich aus natürlichsprachlichen Anweisungen besteht – sogenannte Promptware.

Prompt-Injection als Einstiegspunkt

Der Begriff „Prompt-Injection" wurde bewusst in Anlehnung an SQL-Injection gewählt: Wie dort werden Eingabedaten nicht als Daten, sondern als ausführbare Anweisungen behandelt. Ein LLM, das beispielsweise ein Dokument zusammenfassen soll und dabei einer darin eingebetteten Fremd-Anweisung folgt, ist von einer Prompt-Injection betroffen.

Im Unterschied zu SQL-Injections lassen sich Prompt-Injections nicht zuverlässig herausfiltern, da Sprachmodelle grundsätzlich keinen Kontext kennen, der berechtigte von unberechtigten Anweisungen unterscheidet. Neuere Modelle sind tendenziell widerstandsfähiger, aber ein vollständiger Schutz gilt als nicht realisierbar.

Abgrenzung zu Jailbreaking: Jailbreaking zielt darauf ab, ein LLM zur Ausgabe verbotener Inhalte zu bringen. Prompt-Injection hingegen schmuggelt fremde Anweisungen in einen Kontext, in dem sie nicht befolgt werden dürften.

Die Bedrohung durch KI-Agenten

KI-Agenten haben besonders weitreichende Fähigkeiten und sind damit ein attraktives Angriffsziel:

Persistenz und Fernsteuerung

Über den ersten Angriff hinaus können Angreifer dauerhafte Kontrolle (Persistenz) erlangen:

Die Promptware Kill Chain

Bruce Schneier und weitere Autoren plädieren für den Begriff Promptware („Prompt-Initiated Malware") und definieren in Anlehnung an Lockheed-Martins Cyber Kill Chain eine Promptware Kill Chain:

Schritt Bezeichnung Beschreibung
1 Initial Access Infiltrierung per Prompt-Injection
2 Privilege Escalation Jailbreaking, um Sicherheitssperren zu umgehen
3 Reconnaissance Aufklärung – kann dem LLM selbst überlassen werden
4 Persistence Dauerhafte Verankerung im System
5 Command & Control Fernsteuerung über externe Abruf-URLs
6 Lateral Movement Weiterverbreitung des Prompts an neue Stellen
7 Actions on Objective Eigentliches Ziel (z. B. Datenexfiltration)

Evasion (Tarnung) ist bewusst kein eigener Schritt, sondern ein Querschnittsthema aller Phasen.

Verschleierungstechniken

Forscher haben verschiedene Wege gefunden, Promptware vor menschlicher Entdeckung zu verbergen:

Einordnung und Fazit

Bekannte Promptware-Angriffe stammen bislang fast ausschließlich von wohlmeinenden Sicherheitsforschern. Die angegriffenen Systeme sind jedoch produktiv eingesetzte Software – keine Labordummies. Die Komplexität der Angriffe wächst mit den Fähigkeiten der KI-Systeme.

Johann Rehberger fasst es prägnant zusammen: „Agents are a new execution layer." – und diese Schicht kann eine vollständig neue Form von Malware beherbergen, die ohne ausführbaren Code auskommt.

Quellen

Erstellt aus raw/Promptware Wie weit Malware für KI-Systeme schon ist heise online - 2026-04-01.md

Seite löschen