Während sich die Welt mit Deepfakes auseinandersetzt, einigen sich führende KI-Unternehmen auf eine Reihe von Grundsätzen
Führende KI-Unternehmen wie Meta, Google, Anthropic, Microsoft, OpenAI, Stability.AI und Mistral AI werden Datensätze und Techniken zur Erkennung von Fälschungen überarbeiten und keine neuen Modelle ohne Prüfung veröffentlichen.
Während sich die KI-Tools in rasantem Tempo weiterentwickeln, nutzen missbräuchliche Akteure sie, um „echte“ Inhalte zu manipulieren. Thorn und All Tech is Human, beides gemeinnützige Organisationen, haben es geschafft, KI-Unternehmen an einen Tisch zu bringen, um neue KI-Standards zu schaffen, insbesondere für die Sicherheit von Kindern.
Zu den Grundsätzen gehören eine Überprüfung der Trainingsdaten, die für KI-Modelle verwendet werden, sowie die Notwendigkeit, KI-Generationen mit einem Wasserzeichen zu versehen und neue Erkennungslösungen zu entwickeln, die verhindern, dass generative Tools KI-generiertes Material zum sexuellen Missbrauch von Kindern (AIG-CSAM) erstellen. Bislang haben sich 11 Technologieunternehmen beteiligt, darunter Meta, Google, Anthropic, Microsoft, OpenAI, Stability.AI und Mistral AI.
Wir befinden uns in einem seltenen Moment, einem Zeitfenster, in dem wir mit generativer KI den richtigen Weg einschlagen und sicherstellen können, dass Kinder bei der Entwicklung der Technologie geschützt werden“, so Thorn in einer Erklärung zu den Grundsätzen von "Safety by Design for Generative AI“. Die Absicht bleibt, den Anwendungsbereich zu erweitern. „In den kommenden Wochen werden wir weitere Unternehmen in die Liste der wichtigsten Branchenakteure aufnehmen, die sich zu den Grundsätzen von Safety by Design für generative KI bekennen.
Das Fenster der Möglichkeiten, auf das sich Thorn bezieht, könnte sich schnell schließen. Eine jüngste Abbildung war im März zu sehen, als eine Überprüfung von Metas Anzeigenbibliothek für Facebook und Instagram, nachdem die beiden Plattformen Anzeigen mit einem unscharfen und gefälschten Nacktbild einer jungen Berühmtheit eingeblendet hatten, auf eine App namens Perky AI hinwies.
"Das ist keine Science-Fiction, die irgendwann in der Zukunft möglicherweise oder hypothetisch kommt“, fasste Senator Richard Blumenthal (D-Conn.), Vorsitzender des Ausschusses, bei der Anhörung des Unterausschusses für Datenschutz, Technologie und Recht des US-Senats Anfang des Monats zusammen. Bei dieser Anhörung wurde auch über die Perky-Anzeigen gesprochen.
Kürzlich wurde festgestellt, dass Microsoft Bing und Google Search bei bestimmten Suchbegriffen gefälschte Bilder als Teil der Suchergebnisse anzeigten. Später bestätigten beide Unternehmen, dass das Material identifiziert und entfernt wurde.
Ein wichtiger Grundsatz, zu dem sich die KI-Unternehmen verpflichtet haben, ist eine ernsthafte Überprüfung der Datensätze, die zum Trainieren von KI-Modellen verwendet werden. Im Mittelpunkt steht dabei die frühzeitige Erkennung von CSAM und Material zur sexuellen Ausbeutung von Kindern (CSEM) durch diese Modelle. Meta, Microsoft und andere zielen auf Risiken für Kinder ab, „neben sexuellen Inhalten für Erwachsene in unseren Trainingsdatensätzen für die Video-, Bild- und Audioerzeugung“.
Diese Verpflichtung ist ein bedeutender Schritt nach vorn, um den Missbrauch von KI-Technologien zur Erstellung oder Verbreitung von Material über sexuellen Kindesmissbrauch und andere Formen der sexuellen Schädigung von Kindern zu verhindern.
Im Dezember gaben Forscher des Internet Observatory der Universität Stanford bekannt, dass sie in einer beliebten Open-Source-Bilddatenbank namens LAION-5B mehr als 1.000 Bilder von Kindesmissbrauch gefunden haben. Diese wird verwendet, um generative KI-Tools zu trainieren, wie z. B. den beliebten und unglaublich realistischen Text-Bild-Generator Stable Diffusion 1.5. Obwohl Stability AI diese Datenbank nicht erstellt oder verwaltet hat, wurde sie sofort aus dem Prozess entfernt.
KI-Unternehmen wissen, dass es wichtig ist, generierte Inhalte von echten Inhalten zu unterscheiden und auch die Quelle der Generationen im Falle von beleidigenden Inhalten, die von böswilligen Akteuren in der Absicht, Schaden anzurichten, generiert wurden. Meta, Microsoft, Google und andere betonen, dass sie an Lösungen arbeiten, die Elemente in den Inhalt als Teil des Prozesses zur Erzeugung eines Bildes, Audioclips oder Videos einbetten.
Stability AI erklärt in seiner Selbstverpflichtung, man wolle "die Verwendung generativer KI zur Täuschung anderer mit dem Ziel, Kindern sexuellen Schaden zuzufügen, verbieten und AIG-CSAM ausdrücklich von unseren Plattformen verbannen“.
Die andere Lösung ist die Kennzeichnung von KI-Inhalten mit Wasserzeichen, um den Urheber und die Quelle zu identifizieren. In dieser Hinsicht hat es Fortschritte gegeben. Meta und OpenAI haben beispielsweise Anfang dieses Jahres bestätigt, dass alle Generationen auf ihren Plattformen nun Wasserzeichen oder Kennzeichnungen enthalten werden. "Diese Maßnahme hilft bei der Unterscheidung zwischen menschlichen und synthetischen Inhalten, was für den Schutz der Privatsphäre der Nutzer und die Bekämpfung der Verbreitung von Deepfakes von entscheidender Bedeutung ist“, erklärte Nilesh Tribhuvann, Gründer und Geschäftsführer von White & Brief Advocates & Solicitors, damals gegenüber HT.
Es gibt auch die von Adobe geführte Coalition for Content Provenance and Authenticity (C2PA), der Google, Microsoft, Intel, Leica, Nikon, Sony und Amazon Web Services angehören und die sich für "Content Credentials" für jeden generierten Inhalt einsetzt.