Der KI-Anbieter Anthropic behauptet, sein neues KI-Modell Claude Mythos habe tausende Sicherheitslücken in namhafter Software gefunden – darunter auch jahrzehntealte Bugs. Das ist erstmal genau das: eine Behauptung. Und wie jede sicherheitsrelevante Aussage steht und fällt sie mit ihrer Validierung.
Denn eines ist klar: Wirklich belastbar wird die Ankündigung erst, wenn betroffene Hersteller oder Open Source-Communities diese Lücken bestätigen und entsprechende Patches liefern. Und das dauert bis zu 90 Tage. Vorher wird sich kaum ein Unternehmen öffentlich dazu äußern – aus gutem Grund. Und bei „tausenden“ Lücken, wird es eine Menge Triage geben: Hersteller, die dank knapper Ressourcen priorisieren müssen.
Zwischen Durchbruch und Halluzination
Ist es eine KI-Diskussion wie jede andere?
Einerseits ist es absolut plausibel – ja sogar wahrscheinlich –, dass KI-Systeme mittlerweile in der Lage sind, eigenständig Sicherheitslücken zu finden und möglicherweise sogar Exploits dafür zu entwickeln. A
Andererseits wissen wir auch: KI halluziniert zuweilen. Ob wirklich jede gefundene „Lücke“ ausnutzbar ist oder gar überhaupt existiert, wissen wir noch nicht. Wie bereits gesagt, wir müssen die Bestätigung betroffener Unternehmen und Open Source Communities abwarten. Im so genannten „Responsible Disclosure“-Verfahren erhält ein betroffenes Softwareunternehmen bis zu 90 Tage Zeit, um Patches/Updates für die jeweilige Software bereitzustellen, wenn das nötig ist. So lange dürfte es dauern, bis wir verlässlich wissen, was dran ist an Anthropics Behauptung.
Die folgenden beiden Szenarien sind vorstellbar. Was passiert, wenn…
Szenario 1: Die Lücken sind real
Da man davon ausgehen kann, dass das KI-Unternehmen Stichproben gemacht hat und diese erfolgreich waren, dürfte die Hauptherausforderung sein, zu sehen wie zuverlässig das Modell wirklich ist. Wenn sich ein signifikanter Teil der gemeldeten Funde als Schwachstellen bestätigt, dann steht uns eine intensive Phase bevor: Da es sich um weit verbreitete Software handelt, wird das viele Unternehmen treffen. Hersteller weltweit werden fast gleichzeitig patchen müssen. Ein Wettlauf mit Hackern, die sich vermutlich heute schon fragen, wie schnell sie eine KI überzeugen können, ihnen den Exploit zu schreiben. Die Sommermonate könnten entsprechend heiß werden – buchstäblich.
Nach Ablauf der 90-Tage-Frist könnte Anthropic Bilanz ziehen – möglicherweise inklusive einer Art „Hall of Shame“:
Wer hat schnell reagiert? Wer hat das Problem ignoriert?
Szenario 2: Viel Lärm um wenig
Sollte sich hingegen herausstellen, dass ein Großteil der Funde nicht belastbar ist, dann passiert vermutlich erstaunlich wenig. Open Source-Projekte nutzen die Nachricht vielleicht als PR-Gelegenheit, um auf die Sicherheit ihrer Lösungen hinzuweisen, die restliche Branche nimmt es zur Kenntnis – und macht weiter. Was jedoch viele unterschätzen:
Eine KI, die zuverlässig Schwachstellen findet, ist keine Frage des Ob, sondern des Wann.
Kooperationen
Anthropic hat parallel zur Ankündigung von Claude Mythos das Projekt „Glasswing“ ins Leben gerufen. Die Initiative bringt namhafte Unternehmen und Banken zusammen, um „die kritischste Software der Welt zu sichern“.
Nachdem Anfang des Jahres eine Kooperation zwischen der US-Regierung und Anthropic an Sicherheitsbedenken des Anbieters gescheitert war, gab es nun ein erneutes Treffen, um gemeinsame Ansätze zur Bewältigung der Herausforderungen der KI-Modelle von Anthropic auszuloten.
Die Frage ist auch, wie die KI eingebunden werden sollte, um eine dedizierte Unternehmensumgebung auf möglicherweise unbekannte oder wenig bekannte Sicherheitslücken zu untersuchen.
Sicherheitshersteller wie TrendAI aber auch Softwarehersteller werden zukünftig noch stärker auf KI setzen. Warum ist das Ganze so relevant? Einige Anbieter haben bereits Scanner für Sicherheitslücken entwickelt, die aktiv bei Kunden im Betrieb sind und die als Basis für eine rasche Umsetzung fungieren können. Einige, wie z.B. TrendAI, bieten auch Alternativen, falls Lücken nicht gepatcht werden können.
Aus diesem Grund setzt auch TrendAI bereits KI ein, um die Suche nach Schwachstellen zu beschleunigen. Neben selbst entwickelten Systemen kooperieren wir zukünftig mit Anthropic, besonders um mögliche Sicherheitslücken in KI-Systemen aufzudecken und zu schließen.
KI-Anbieter sind keine Cybersecurity-Unternehmen. Sie brauchen deshalb unsere Scanner, um Unternehmen auf Probleme aufmerksam zu machen. Die Frage ist jetzt vor allem, wie schnell solche Integrationen erfolgen können.
Auswirkungen
Für die Branchen wird das unterschiedliche Auswirkungen haben:
Für Unternehmen sind nur die Lücken interessant, die die eigene Umgebung betreffen. Darüber Bescheid zu wissen, ist aber auch nur die halbe Miete. Vielmehr geht es darum, sie zu schließen. Für die meisten Unternehmen ist das das eigentliche Problem. Wenn Claude Mythos tatsächlich „tausende Lücken“ gefunden hat, kann diese Herausforderung enorm relevant werden. Aber nicht nur das.
Softwarehersteller
Wenn es eine KI gibt, die Sicherheitslücken erkennt und Exploits schreibt, dann muss man auch darüber nachdenken, warum es überhaupt Aufgabe der einsetzenden Unternehmen sein sollte, sich um die Flaws zu kümmern? Die Hersteller der Software können vor dem Release ihrer Produkte ebenfalls eine entsprechende Prüfung durchführen, oder? Dadurch dürften Sicherheitslücken ans Tageslicht kommen, noch bevor die Software den Kunden erreicht.
Wird „Patchen“ dadurch vielleicht zu einem Problem der Vergangenheit? Tatsächlich dürfte es nicht allzu lange dauern, bevor das Thema juristisch relevant wird. Was ist beispielsweise, wenn einem Unternehmen ein Schaden durch eine Lücke entsteht und sich herausstellt, dass der Hersteller keine Prüfung seines Codes vor dem Release getätigt hatte? Wer trägt dann die Verantwortung?
Politik und Machtfragen
Ein oft unterschätzter Punkt: der Umgang mit Staaten.
Bis heute werden Sicherheitslücken aktiv genutzt (u.a. bei der Verbrechens- und Terrorismusbekämpfung). Wenn KI nun massenhaft Schwachstellen findet, wird dies komplizierter:
Nicht nur Hersteller müssten Lücken „übersehen“ – sondern auch KI-Systeme. Das wirft neue Gedanken auf:
- Wie sicher ist der Code von Claude Mythos selbst?
- Kann die Technologie missbraucht werden?
- Wer kontrolliert den Zugang?
Auch Institutionen wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) haben bereits diesbezügliche Bedenken geäußert.
Die Gretchenfragen
Damit sind wir beim Kernproblem einer so brisanten KI (vorausgesetzt Anthropics Aussagen stellen sich als wahr heraus). Wer darf Claude Mythos nutzen? Wer darf einem solchen System Fragen stellen, und welche Fragen sind erlaubt? Damit geht auch einher: Wie hoch ist das Missbrauchspotenzial? Was wenn die Informationen den Falschen in die Hände fällt? Und wer sind eigentlich "die Falschen"? Dürfen beispielsweise Regierungen das Tool befragen und wenn ja, alle Regierungen? Oder kann ein Zugriff nur unter strenger Aufsicht erfolgen, um Missbrauch auszuschließen? Aber wer ist dann die Autorität, die das beurteilt?
Selbst wenn wir alle diese offenen Punkte klären könnten… wer verhindert eigentlich, dass es Nachbauten geben wird? Wären diese im Interesse der Wettbewerbsfähigkeit gut oder schlecht?
Antworten gibt es (noch) nicht.
Fazit: Pandoras Büchse ist geöffnet
Philosophisch betrachtet ist das Öffnen der Büchse der Pandora weder gut noch schlecht. Nicht nur entschlüpft ihr alles Böse, sondern auch der wunderbare Schmetterling namens „Hoffnung“. Eine ähnliche Situation haben wir hier.
Eine KI mit den Fähigkeiten von Claude Mythos kann in den falschen Händen dramatische Auswirkungen haben. Richtig eingesetzt könnte sie aber auch das Ende der leidigen Patch-Problematik bedeuten. Es gibt kaum ein Unternehmen, das dies nicht begrüßen dürfte.
Nun ist Pandoras IT-Sicherheitsbüchse also geöffnet. Das war ehrlich gesagt lediglich eine Frage der Zeit. Das Entscheidende ist, was wir damit machen. Eine spannende Aufgabe für die Zukunft.
Mit 25 Jahren IT-Security Erfahrung im Rücken, teile ich die Bedenken des BSI. Stimmt, was Anthropic behauptet, werden wir erstmal mehr Probleme bekommen. Wir werden es in ca. drei Monaten wissen. Perspektivisch sollten wir davon ausgehen, dass es mehr als einen „Claude Mythos“ geben wird. Und wir werden Herausforderungen bei jeder dieser Lösungen begegnen. Aber wer weiß…vielleicht können wir das Problem „Patchmanagement“ auch grundsätzlich beseitigen. Die Hoffnung stirbt bekanntlich zuletzt.