Was ist generative KI und wie funktioniert sie?
Im Jahr 2022 brachte OpenAI ChatGPT auf den Markt, seinen bahnbrechenden Chatbot mit großem Sprachmodell (LLM), der in der Lage ist, menschenähnliche Antworten auf Anfragen zu erzeugen. Das Modell, das leicht zugänglich und größtenteils kostenlos ist, eroberte die Welt im Sturm und markierte den Beginn einer neuen, bedeutenden Ära für generative KI.
Inhaltsverzeichnis
Die generative KI kann Inhalte auf der Grundlage von Daten generieren, mit denen sie trainiert wurde, und wird dabei immer besser - und komplexer.
Aber generative KI ist keine neue Entwicklung. Ihre Fähigkeiten wurden zwar im Laufe der Zeit verfeinert, doch ihre Anfänge gehen auf die Anfangszeiten des maschinellen Lernens zurück, als die Idee der Generierung originärer Inhalte durch Alan Turings zeitlose Frage "Können Maschinen denken?" in Worte gefasst wurde.
Heute ermöglichen es die Fortschritte des maschinellen Lernens, die Entwicklung der Verarbeitung natürlicher Sprache und die Hunderte von Gigabytes, die den Modellen als Trainingsdaten zugeführt werden, generativen KI-Modellen, Texte, Bilder und andere Inhalte zu produzieren.
Diese Fortschritte sind jedoch nicht ohne Risiken und Einschränkungen. Neben den Durchbrüchen gab es in den letzten Jahren auch eine Reihe von Klagen gegen KI-Unternehmen, die ihre Modelle mit urheberrechtlich geschützten Daten trainieren, sowie Klagen wegen Fehlinformationen und diffamierender oder diskriminierender Ergebnisse.
Generative KI ist heute nicht nur nahezu allgegenwärtig, sondern sie entwickelt sich auch auf immer komplexere Weise weiter.
Wie funktioniert die generative KI?
Die grundlegende Komponente der generativen KI sind Trainingsdaten. Je mehr Daten in eine Maschine eingespeist werden, desto mehr kann sie daraus ziehen, um Ergebnisse zu generieren. Es sollte daher nicht überraschen, dass ChatGPT 4 mit nicht weniger als 570 GB an Textdaten aus dem Internet trainiert wurde.
Hochentwickelte generative KI-Modelle können aus diesen Daten lernen und auf Eingaben reagieren, indem sie relevante Informationen daraus abrufen - und sie entsprechend wiedergeben. Je nachdem, wie das KI-System aufgebaut ist, kann die Ausgabe in Form von Text, Fotos, Videos, Bildern oder Audio erfolgen.
Doch die Ausgabe ist nicht das Einzige, was sich in den letzten Jahren erheblich weiterentwickelt hat. Die Fähigkeit von KI-Modellen, menschenähnliche Eingaben zu erhalten, hat die Tür zu einer völlig neuen Ära der Benutzererfahrung geöffnet, die von der Eingabe von Informationen über APIs oder Kodierung bis zur fortgeschrittenen Verarbeitung natürlicher Sprache (NLP) reicht.
NLP-Modelle, die auf generativer KI basieren, können nun Aufgaben wie Informationsabfrage, Stimmungsanalyse, Informationsextraktion und Fragenbeantwortung übernehmen.
Wie wird generative KI eingesetzt?
Es gibt zwei Hauptformen der generativen KI: LLMs und multimodale Modelle. LLMs, wie ChatGPT, "erzeugen plausibel klingenden Text als Antwort auf eine menschliche Aufforderung in Form einer Anfrage". Multimodale Modelle hingegen können Anweisungen entgegennehmen oder Ausgaben in verschiedenen Formaten erzeugen, darunter Audio, Video und Bilder.
Die wachsenden Möglichkeiten der generativen KI haben sie ins öffentliche Bewusstsein gerückt. Tatsächlich wird die Technologie inzwischen branchenübergreifend und in verschiedenen Bereichen eingesetzt.
Eine Umfrage aus dem Jahr 2023 ergab, dass etwa jeder zehnte generative KI für berufliche Zwecke verwendet hat, während eine Studie aus dem Jahr 2024 zeigt, dass 26 % der Juristen in Anwaltskanzleien die Technologie mehr als einmal im Monat nutzen.
Das liegt daran, dass die Anwendungsfälle von generativer KI besonders breit gefächert sind, vom Kundenservice und technischen Support bis hin zur Optimierung des Chipdesigns und der Ausführung von sich wiederholenden Aufgaben - zum Beispiel. Die Implementierung solch ausgefeilter Modelle in diversen Unternehmen und Organisationen hat die Produktion von Inhalten, die Leistungsoptimierung und die Servicequalität verbessert.
Was sind die Risiken der generativen KI?
Modelle können die eingegebenen oder ausgegebenen Daten nicht wirklich verstehen, was dazu führen kann, dass sie Vorurteile, einschließlich rassistischer und sexistischer Ansichten, reproduzieren. Einige Beispiele für solche von der KI generierte Inhalte sind diskriminierende Behauptungen, aber auch Fehlinformationen. LLMs erzeugen regelmäßig völlig falsche Informationen.
Dieses Problem kann leicht weiter eskalieren, da bestehende Systeme oft als Grundmodelle für andere Anwendungen und Dienste dienen, so dass dieselben Vorurteile ihren Weg in andere Systeme und Anwendungen finden.
Jede Ausgabe ist in gewisser Weise eine Reproduktion des Inhalts, der zum Trainieren der Modelle verwendet wurde - was ein existenzielles Problem für generative KI aufwirft. Viele der Daten, die zum Trainieren der Modelle aus dem Internet entnommen werden, sind urheberrechtlich geschützt - von Büchern über Musik bis hin zu Bildern - und sind in den von der KI generierten Inhalten oft ohne Quellenangabe wiederzuerkennen. Mehrere Urheberrechtsklagen, die in den letzten Monaten von Verlagen und Künstlern gegen KI-Firmen eingereicht wurden, zeigen, in welchem Ausmaß generative KI eine potenzielle Bedrohung für die Kreativbranche darstellt.
Doch zwischen rechtlichen Einschränkungen und ethischen Bedenken entwickelt sich die generative KI schnell weiter. Und auch wenn Alan Turings Frage vielleicht nicht an der Tagesordnung ist, so wird sie doch immer relevanter - in mehr als einer Hinsicht.