OpenAI und Microsoft bauen ihre Partnerschaft im Bereich Cybersicherheit aus

OpenAI und Microsoft verkündeten eine erweiterte Partnerschaft im Bereich Cybersicherheit, um fortschrittliche Tools der künstlichen Intelligenz (KI) gegen Cyberbedrohungen einzusetzen.

In einem Beitrag auf der Social-Media-Plattform X erklärte das Unternehmen, dass OpenAI Microsoft über sein Programm "Trusted Access for Cyber" Zugang zu seinen fortschrittlichsten KI-Modellen mit Cyberfähigkeiten gewähren werde.

Microsoft wiederum wird seine Cybersicherheitsinfrastruktur und sein Fachwissen, einschließlich seiner "Secure Future Initiative", einsetzen, um die Systeme, Modelle und gemeinsamen Kunden von OpenAI zu schützen.

Die Unternehmen gaben keine finanziellen Details oder einen Zeitplan für die Vereinbarung bekannt.

Das im Februar dieses Jahres eingeführte Pilotprojekt "Trusted Access for Cyber" von OpenAI ist ein identitätsbasiertes Framework, das sicherstellen soll, dass die leistungsstärksten Cybersicherheitsfunktionen des Unternehmens in erster Linie von geprüften Nutzern eingesetzt werden.

Laut einem Blogbeitrag des Unternehmens gab OpenAI im Rahmen seines Cybersecurity Grant Programms 10 Millionen US-Dollar an API-Gutschriften aus, um die Akzeptanz bei Sicherheitsteams zu beschleunigen, insbesondere bei solchen, die sich auf die Identifizierung und Behebung von Schwachstellen konzentrieren.

Cybersicherheit im Fokus

Die Ankündigung erfolgt als Reaktion auf rasante Fortschritte im Bereich der KI. "KI-Modelle werden im Bereich der Cybersicherheit immer leistungsfähiger, und dieser Fortschritt legt die Messlatte für alle höher", so OpenAI.

Diese Entwicklung folgt auf zunehmende Cybersicherheitsprobleme aufgrund des Mythos-Modells von Anthropic, das Microsoft selbst in sein Framework für sichere Programmierung integrieren will, während das Unternehmen seine Cybersicherheitsfähigkeiten ausbaut.

Microsoft hat Mythos kürzlich anhand seines eigenen Open-Source-Benchmarks für reale Erkennungsaufgaben evaluiert, und die "Ergebnisse zeigten erhebliche Verbesserungen gegenüber früheren Modellen".

OpenAIs Vorstoß in der Cyberabwehr

OpenAI stellte unterdessen Anfang dieses Monats GPT-5.4-Cyber vor, eine Variante seines neuesten Flaggschiffmodells, die speziell für defensive Cybersicherheitsaufgaben optimiert wurde.

Der Entwickler von ChatGPT hat sich konsequent beim Aufbau von Cyberabwehrfähigkeiten engagiert. OpenAI erklärte, seine Cybersicherheitsstrategie konzentriere sich auf drei Prinzipien: die Erweiterung des Zugangs für legitime Verteidiger, die iterative Bereitstellung von Systemen und Investitionen in die Widerstandsfähigkeit des Ökosystems.

Außerdem fand in Washington eine Veranstaltung für etwa 50 Cyberabwehr-Experten aus der gesamten Bundesregierung statt, um die Fähigkeiten des neuen GPT-5.4-Cyber-Modells zu demonstrieren.

Das von Sam Altman geführte Unternehmen hat seine Bemühungen seit Dezember letzten Jahres verstärkt und erklärt, es "investiere in die Stärkung von Modellen für defensive Cybersicherheitsaufgaben".

In einem Anfang dieses Monats veröffentlichten Blogbeitrag erklärte OpenAI, dass es seit 2023 Verteidiger durch sein Cybersecurity Grant Programme unterstützt und Tools wie Codex Security erweitert habe, das automatisch Codebasen scannt, Schwachstellen validiert und Korrekturen vorschlägt.

Nach Angaben des Unternehmens hat das System seit seiner kürzlichen Einführung dazu beigetragen, mehr als 3.000 kritische und schwerwiegende Schwachstellen zu beheben.

Das Unternehmen gab außerdem bekannt, dass es mit kostenlosen Sicherheits-Scan-Tools mehr als 1.000 Open-Source-Projekte erreicht habe.