Ich komme aus dem Bereich und ich interessiere mich für

Insights

Special Force für den AI-Einsatz

Special Force für den AI-Einsatz - genua GmbH insights-it-security-feature.jpg

Um neuen, AI-basierten Bedrohungsszenarien für die IT-Sicherheit angemessen zu begegnen, kann sich ein speziell trainiertes Expertenteam rentieren. Beim Aufbau einer solchen "Special Force" sind jedoch einige Dinge zu berücksichtigen.

Chance und Risiko

Die Zahlen entsprechen der Situation am Markt. AI-Anwendungen sind inzwischen in zahlreichen Varianten verfügbar und erweitern ihr Leistungsspektrum schneller, als dies in den vergangenen Jahren der Fall war. Auf dem Stand der Dinge zu bleiben und in kurzer (Test-) Zeit die richtige Auswahl zu treffen, stellt somit bereits an sich eine Herausforderung dar. Wird dabei die Frage nach der Sicherheit vernachlässigt, kann die AI allerdings schnell zur "Zielscheibe" für Cybercrime werden. Besonders heikel: ist eine AI in Geschäftsprozessen eingesetzt, trifft sie Entscheidungen, die nicht immer nachvollziehbar sind und daher von Angreifern als Einfallstor verwendet werden können. Einmal im System, kann der Impact des Angriffes dann zukünftig verheerend sein. Denn die Entscheidungen der AI sollen in der Regel auf möglichst vielen Informationen beruhen – also sind viele Abteilungen bzw. Quellen aus dem Unternehmen eingebunden. Womit wiederum das System von ganz vielen Ausgangspunkten im Unternehmen angreifbar und der potenzielle Schaden besonders umfassend ausfallen kann.

IT-Sicherheitsteams verstärken

Die Absicherung dieser AI-Komponenten, ob zugekauft oder selbst entwickelt, stellt also eine zusätzliche, wichtige Herausforderung für die IT Security dar. Eine Auseinandersetzung mit AI-Anwendungen, die auf Cyber Security-Funktionen spezialisiert sind, ist hier sicherlich empfehlenswert. Dies sollte aber eng verbunden sein mit der Frage, wie sich das Know-how über den richtigen Umgang mit AI über die Funktionsgrenzen im Unternehmen hinweg auf- bzw. ausbauen lässt.

Eine Verstärkung der IT-Sicherheitsteams mit Experten, die sich insbesondere mit AI-gestützten Angriffen, deren Abwehr und Prävention auseinandersetzen, kann hierbei sinnvoll sein. Zumal es nicht ausgeschlossen ist, dass sich zukünftig nicht einzelne Fachkräfte, sondern ein großer Teil der IT Security-Abteilung mit dem Management von AI-bezogenen Aufgaben befassen muss. Je eher also entsprechende Kompetenz aufgebaut wird, desto besser. Aber anhand welcher Kriterien lässt sich entscheiden, ob eine solche "AI Special Force" in der IT-Sicherheit überhaupt notwendig ist? Und falls ja, auf welche Aufgaben sollte sie sich konzentrieren?

Externe oder interne AI-Experten

Vor allem der Kostenfaktor ist maßgeblich bei der Entscheidung für oder gegen den Aufbau eines Inhouse-Expertenteams. Die benötigten Spezialisten sind derzeit auch nicht bzw. nur äußerst selten im Arbeitsmarkt verfügbar, so dass auch eine langfristige Zusammenarbeit mit entsprechenden Dienstleistern der sinnvollere Weg sein kann. Die Vorteile eines In-House-AI-Teams liegen wiederum darin, dass das Unternehmen unabhängig und langfristig effizienter bei der Gefahrenabwehr wird. Sind diese Experten zudem gut mit dem Management verdrahtet, fließt deren Wissen auch in die Strategie mit ein. Durch ein eigenes Team, welches mit den Unternehmensprodukten vertraut ist, funktioniert zudem die Integration in die Produktwelt schneller und verzahnter.

Mensch und Maschine

Beim Aufbau der "Special Force" für AI-Themen in der IT-Sicherheit sind mehrere Dinge zu berücksichtigen. Einerseits ist es wichtig, dass die Kontrolle über die Informationskette gewahrt wird. Konkret darf das Team sich nicht abkoppeln, sondern muss für einen transparenten Austausch der benötigten Informationen sorgen. Andererseits geht es auch darum, dass Mensch und Maschine eng zusammenarbeiten und die Tools auf ihre Aktualität hin permanent überprüft werden. Des Weiteren müssen Daten visualisiert und Sicherheitslinien eingehalten werden. Ein Team, welches sich zur Aufgabe macht, AI-gestützte Angriffe abzuwehren, kann unter Beachtung dieser Regeln also durchaus sinnvoll sein. Die Praktikabilität einer eigenen AI-Einheit hängt aber natürlich auch von Unternehmensgröße ab, für kleinere Betriebe ist ein solches Vorgehen eher unrealistisch.

Intuition noch immer maßgebend

Zudem sind die Fähigkeiten der Mitarbeiter in bereits vorhandenen IT Security-Teams nicht zu vernachlässigen. Da die AI aufgrund von explizitem Wissen agiert, ist bei Einzelfallentscheidungen auch das menschliche Know-how wichtig. Wie sich dieses Wissen aufbauen lässt, zeigen wir zum Beispiel in unseren Trainings und Bootcamps. Dort versetzen sich die Teilnehmer bspw. in die Rolle eines Hackers, um die Vulnerabilität von IT-Systemen und die von Angreifern verwendeten Methoden besser zu verstehen. Das gesammelte Wissen verhilft den Teilnehmern, die Effektivität des eigenen IT-Systems zu optimieren. Außerdem sollen die Teilnehmer verschiedene Szenarien durchspielen und dadurch auch ein Gespür für die Notwendigkeit menschlicher Eingriffe erhalten. Und genau das macht auch die Handlungsfähigkeit einer AI Special Force im IT-Sicherheitsernstfall aus: Risiken richtig einschätzen und mit einer adäquaten Ausrüstung schnell und effektiv handeln zu können.