Originalartikel von Spark Tsao, Data Scientist
Die Branche der Cybersicherheit ist eine der vielen Bereiche, die ganz erheblich von KI profitiert haben. Effizient eingesetzt verbessert die künstliche Intelligenz die Fähigkeiten von Cybersicherheitslösungen, ein breites Spektrum der Bedrohungen zu erkennen, einschließlich brandneuer oder nicht klassifizierter Gefahren. Der Prozess der effizienten Nutzung der KI umfasst unter anderem in der Regel modernste Modelle, eine iterative Methode zur Verbesserung der Genauigkeit des Modells und genau gekennzeichnete Daten.
In vielen Cybersicherheitsunternehmen, die KI einsetzen, werden die genannten Anforderungen - insbesondere der Prozess der genauen Kennzeichnung von Daten – durch Bedrohungsexperten unterstützt. Diese kümmern sich neben anderen manuellen Aufgaben oder Prozessen, die handgefertigte Eingaben produzieren, um die Vorverarbeitung der Daten und die Extraktion sowie Entwicklung der Funktionalität. Im Wesentlichen ermöglichen diese von Experten handgefertigten Eingaben eine eindeutigere Ausführung von Modellen, da die zugrunde liegende Struktur der Daten somit genau dargestellt werden kann, wodurch die Fähigkeiten zur Erkennung von Bedrohungen verbessert werden.
Das Aufkommen neuer Methoden zur Erkennung von Bedrohungen mit Hilfe der KI stellt jedoch den Bedarf an handwerklichem Input von Experten in Frage. Insbesondere beinhalten diese Methoden durchgehende, Deep Learning-Lösungen, die von einigen als der nächste große Meilenstein in der Malware-Erkennung angepriesen werden. In solchen Lösungen werden die von Expertenerarbeiteten Eingaben durch solche ersetzt, die von automatisierten Prozessen bereitgestellt werden. Während dies in einigen Industriezweigen, die KI für verschiedene Zwecke einsetzen, wohl immer mehr akzeptiert wird, wirft das Fehlen handwerklicher Eingaben von Experten die Frage auf, ob handwerkliche Eingaben von Experten bei der Entwicklung einer effizienten KI-gestützten Cybersicherheitslösung noch relevant sind oder nicht.
Ein Ansatz untersuchte Malware-Binärdateien, die als Graustufenbilder dargestellt wurden, was die textuellen und strukturellen Ähnlichkeiten und Unterschiede entweder zwischen Binärdateien derselben und anderer Malware-Familien oder zwischen Malware und gutartiger Software aufzeigte. Dadurch wird das manuelle Feature-Engineering vermieden, was Zeit spart und den Arbeitsaufwand für Cybersicherheitsunternehmen verringert. Ein weiterer Ansatz umfasst einen Prozess, bei dem die Engine mit Rohdaten gefüttert wird, die aus Byte-Rohwerten bestehen, und Output erzeugt, der die Klassifizierung einer bösartigen oder gutartigen Datei anzeigt.
Informieren Sie sich eingehender über die Entwicklungen im durchgängigen Deep Learning für Cybersicherheit und über die derzeitige und künftige Effizienz.