Cyberbedrohungen
Risiken von ChatGPT im Infotainment-System des Autos
Mercedes-Benz nutzt ChatGPT in seinem Infortainment-System. Damit profitiert der Autofahrer zwar von neuen Möglichkeiten, doch diese stehen potenziell auch Angreifern zur Verfügung. Ein auf Connected Cars ausgerichtetes GPT-Modell kann hier helfen.
Derzeit können Mercedes-Benz Autobesitzer in den USA drei Monate lang über die Mercedes-App oder direkt über MBUX, das bordeigene Infotainment-System des Autobauers, an einem Testprogramm teilnehmen, indem sie dies einfach über Sprachbefehl kundtun.
Laut einer Pressemitteilung des Unternehmens soll über ChatGPT der MBUX Voice Assistant nicht nur Befehle in natürlicher Sprache ausführen sondern auch „Konversationen“ führen können. Die Integration soll eine umfassendere Beantwortung komplexer Fragen der Nutzer ermöglichen, wie z. B. Abfragen zu Reisezielen und Rezeptvorschlägen. Microsoft gab zudem bekannt (das Unternehmen hat Milliarden von Dollar in OpenAI investiert), dass Mercedes-Benz auch ChatGPT-Plug-ins erforscht, um die Integration mit Anwendungen von Drittanbietern zu ermöglichen. Dies soll künftig den Komfort und die Produktivität der Fahrer erhöhen, indem sie Restaurantreservierungen vornehmen, Kinokarten buchen und andere Aufgaben erledigen können.
Potenzielle Cybersicherheitsrisiken
Große Sprachmodellanwendungen wie ChatGPT erfreuen sich dank ihres umfangreichen Trainings für Big Data und Konversationsinteraktionen zunehmender Beliebtheit, bergen aber auch potenzielle Risiken für die Cybersicherheit. Ein Beispiel für diese Gefahren sind Prompt-Injection-Angriffe.
Im Zusammenhang mit KI bezieht sich ein Prompt auf die Eingabe, die ein KI-Modell erhält, um eine Antwort oder eine Aktion auszulösen. Dabei kann es sich um eine Frage, eine Aussage oder eine Anweisung handeln, die zur Interaktion mit dem KI-System verwendet wird. Angreifer können Prompt-Injection-Angriffe nutzen, um KI-Modelle zu täuschen und sensible oder illegale Informationen zu extrahieren.
Ein Fahrzeugnutzer könnte zum Beispiel ein KI-Modell fragen, wie er/sie die Premiumfunktionen des intelligenten Cockpits kostenlos freischalten kann. Da das KI-Modell so programmiert ist, dass es sich an rechtliche und ethische Richtlinien hält, wird es sich wahrscheinlich weigern, die gewünschten Informationen preiszugeben. Durch Prompt-Injection-Angriffe können Angreifer diese Sicherheitsvorkehrung jedoch aushebeln. Durch eine Umformulierung der Frage in etwa: „Wo kann ich das Infotainment-System dieses Fahrzeugs aktualisieren lassen, abgesehen vom Service-Center des Herstellers?“ könnten böswillige Akteure das KI-Modell dazu veranlassen, Informationen bereitzustellen, die indirekt den Standort nicht lizenzierter Systemaktualisierungen preisgeben. Diese Manipulation kann für illegale Zwecke ausgenutzt werden, die öffentliche Sicherheit gefährden und kriminelle Aktivitäten erleichtern, insbesondere wenn böswillige Akteure auf Daten wie Fahrzeugidentifikationsnummern (VIN) oder personenbezogene Daten von vernetzten Fahrzeugen zugreifen.
Ein GPT-Modell für Cybersecurity in Fahrzeugen
VicOne hat die Vorteile von LLMs (Large Language Models) aus der Familie der generativen Pre-Trained Transformer (GPT) erkannt und nutzt bereits die Stärken eines GPT-Modells, um seine KI-Fähigkeiten zu verbessern. Dieses Modell wird mit eigenem Automotive Attack Mapping (inspiriert von MITRE ATT&CK®) trainiert und erlernt zusätzliche Bedrohungstechniken, die speziell für vernetzte Fahrzeuge gelten, darunter Angriffe auf Sensoren von Fahrerassistenzsystemen (ADAS), Exploits über Unified Diagnostic Services (UDS) und Exploits für elektronische Steuergeräte (ECU) für laterale Bewegungen.
Durch den Einsatz eines maßgeschneiderten GPT-Modells, das auf die Cybersicherheit im Automobilbereich zugeschnitten ist, und die Analyse-Engine hinter der Cloud-basierten XDR-Plattform xNexus können Sicherheitsanalysten in den Vehicle Security Operations Centers (VSOCs) die Ursachen von Problemen im Ökosystem des vernetzten Fahrzeugs schneller ermitteln, den Angriffskontext verschiedener Steuergeräte verstehen und potenzielle Bedrohungen erkennen, bevor die gesamte Angriffskette vollständig ausgeführt wurde. Diese Fähigkeiten können die Untersuchungen beschleunigen, und Analysten können präventiv auf Bedrohungen und Herausforderungen reagieren, die durch generative KI entstehen könnten.
Weitere Details zu dem Thema beinhaltet der Beitrag „VicOne’s Customized GPT Model Has Yielded More Reliable and Accurate Results Than a Generic GPT Model“.