Großbritannien und Microsoft arbeiten an System zur Deepfake-Bekämpfung

Großbritannien hat kürzlich die Erstellung nicht einvernehmlicher intimer Bilder unter Strafe gestellt

London – Großbritannien wird gemeinsam mit Microsoft, Wissenschaftlern und Experten ein System zur Erkennung von Deepfake-Material im Internet entwickeln, teilte die Regierung mit. Damit will sie Standards für den Umgang mit schädlichen und irreführenden KI-generierten Inhalten festlegen.

Während manipuliertes Material schon seit Jahrzehnten online kursiert, hat die rasche Verbreitung generativer KI-Chatbots – ermöglicht durch die Einführung von ChatGPT und anderen – die Besorgnis über das Ausmaß und den Realismus von Deepfakes verstärkt.

Großbritannien, das kürzlich die Erstellung nicht einvernehmlicher intimer Bilder unter Strafe gestellt hat, gab bekannt, dass es an einem Bewertungsrahmen für die Erkennung von Deepfakes arbeitet, um einheitliche Standards für die Bewertung von Erkennungswerkzeugen und -technologien festzulegen.

Deepfakes werden von Kriminellen als Waffe eingesetzt, um die Öffentlichkeit zu täuschen, Frauen und Mädchen auszubeuten und das Vertrauen in das, was wir sehen und hören, zu untergraben.

Nicht einvernehmliche Bilder

Der Rahmen werde bewerten, wie Technologie eingesetzt werden kann, um schädliche Deepfake-Materialien unabhängig von ihrer Quelle zu bewerten, zu verstehen und zu erkennen, erklärte die Regierung. Dazu würden Deepfake-Erkennungstechnologien anhand realer Bedrohungen wie sexuellem Missbrauch, Betrug und Identitätsdiebstahl getestet.

Dies würde der Regierung und den Strafverfolgungsbehörden helfen, besser zu verstehen, wo noch Lücken in der Erkennung existieren, hieß es weiter. Das Rahmenwerk werde genutzt, um klare Erwartungen an die Industrie hinsichtlich der Standards für die Deepfake-Erkennung zu formulieren.

Nach Angaben der Regierung wurden im Jahr 2025 schätzungsweise 8 Millionen Deepfakes geteilt, gegenüber 500.000 im Jahr 2023.

Regierungen und Regulierungsbehörden weltweit, die Schwierigkeiten haben, mit der rasanten Entwicklung der KI-Technologie Schritt zu halten, wurden in diesem Jahr zum Handeln veranlasst, als bekannt wurde, dass Elon Musks Chatbot Grok nicht einvernehmliche sexualisierte Bilder von Menschen, darunter auch Kindern, generiert.

Die britische Kommunikationsaufsichtsbehörde und die Datenschutzbehörde führen parallele Untersuchungen zu Grok durch.