Microsoft: KI wird nie 100% sicher sein
Wer die Hoffnung hegt, dass KI von Natur aus sicher sein kann, wird enttäuscht: Das Forschungsteam von Microsoft hält dies für eine unmögliche Aufgabe.
KI ist sowohl ein Segen als auch ein Fluch für die Cybersicherheit. Während sie ein nützliches Werkzeug für die Analyse von Code und das Aufspüren von Sicherheitslücken sein kann, arbeiten Kriminelle bereits mit Hochdruck daran, KI für immer raffiniertere Angriffe einzusetzen. Neben direkten Cyberangriffen birgt KI auch alltägliche Risiken für die Datensicherheit und Geschäftsgeheimnisse, da KI Daten verarbeitet und indexiert.
Um das wachsende Gebiet besser zu verstehen, hat sich eine Gruppe von Microsoft-Forschern mit der Frage der KI-Sicherheit befasst und ihre Ergebnisse in einem neuen Dokument veröffentlicht. Die Forschung wurde mit Microsofts eigenen KI-Modellen durchgeführt.
In den letzten Jahren hat sich das KI-Red-Teaming zu einer Praxis entwickelt, mit der die Sicherheit von generativen KI-Systemen untersucht werden kann. Da es sich um ein junges Gebiet handelt, gibt es viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten.
Das Team konzentrierte sich auf acht spezifische Bereiche:
- Verstehen, was das System leisten kann und wo es eingesetzt wird
- Man muss keine Gradienten berechnen, um ein KI-System zu brechen
- KI-Red Teaming ist kein Sicherheitsbenchmarking
- Automatisierung kann helfen, einen größeren Teil der Risikolandschaft abzudecken
- Die menschliche Komponente des KI-Red-Teaming ist entscheidend
- Verantwortungsvolle KI-Schäden sind allgegenwärtig, aber schwer zu messen
- LLMs verstärken bestehende Sicherheitsrisiken und führen neue ein
- Die Arbeit zur Sicherung von KI-Systemen wird nie abgeschlossen sein
KI wird nie 100% sicher sein
Bei der Erörterung des achten Punktes wiesen die Forscher auf die Probleme hin, die mit der Sicherung von KI-Systemen verbunden sind.
Technische und wissenschaftliche Durchbrüche sind dringend erforderlich und werden sicherlich dazu beitragen, die Risiken leistungsstarker KI-Systeme zu mindern. Die Vorstellung, dass es möglich ist, die Sicherheit von KI-Systemen allein durch technische Fortschritte zu garantieren oder zu „lösen“, ist jedoch unrealistisch und vernachlässigt die Rolle, die wirtschaftliche Aspekte, Fehlerbehebungszyklen und die Regulierung spielen können.
Letztlich kommen die Forscher zu dem Schluss, dass der Schlüssel zur KI-Sicherheit in der Erhöhung der Kosten für Angriffe liegt, wobei die drei genannten spezifischen Methoden zum Einsatz kommen.
Zusätzliche Erkenntnisse
Die Studie nennt eine Reihe von Problemen, die mit der Sicherung von KI-Systemen verbunden sind, nicht zuletzt das häufige Szenario der Integration von KI in bestehende Systeme. Leider führt der Versuch, diese beiden Systeme miteinander zu verbinden, häufig zu ernsthaften Sicherheitsproblemen.
Schlussfolgerung
Die Schlussfolgerung der Studie ist ein faszinierender Einblick in die Herausforderungen, die mit der Sicherung von KI-Systemen verbunden sind, und legt realistische Erwartungen dar, denen Unternehmen Rechnung tragen müssen.
Letztendlich erweist sich KI als ein System wie jedes andere Computersystem, bei dem es zu einem nicht enden wollenden Kampf zwischen Sicherheitsexperten und Kriminellen kommen wird.