Microsofts Copilot-KI generiert gerne antisemitische Stereotypen
Trotz gegenteiliger Beteuerungen erzeugt Microsofts neu benanntes Copilot-KI-System weiterhin alle Arten von unangemessenem Material - und dieses Mal entstehen dabei antisemitische Karikaturen.
Der Bildgenerator von Copilot, bekannt als Copilot Designer, hat so große Probleme mit der Erzeugung bedenklicher Bilder, dass einer der führenden KI-Ingenieure von Microsoft sowohl die Federal Trade Commission als auch den Vorstand des Unternehmens auf die so genannte "Schwachstelle" aufmerksam gemacht hat, die die Erstellung dieser Inhalte ermöglicht.
In einem auf LinkedIn veröffentlichten Brief behauptet der leitende Softwareentwickler von Microsoft, Shane Jones, dass er beim Testen des Bildgenerators DALL-E 3 von OpenAI, der dem Copilot Designer zugrunde liegt, "eine Sicherheitslücke" entdeckt habe, die es ihm ermöglicht habe, "einige der Schutzmechanismen zu umgehen, die die Erzeugung von gefährlichem Bildmaterial verhindern sollen".
"Es war ein augenöffnender Moment", sagte der Ingenieur gegenüber CNBC, "als ich zum ersten Mal erkannte: Wow, das ist wirklich kein sicheres Modell."
Das von Tom's Hardware getestete System erzeugte mit Freude urheberrechtlich geschützte Disney-Figuren, die rauchen, trinken und auf Handfeuerwaffen sitzen, sowie antisemitische Karikaturen, die Stereotypen über jüdische Menschen und Geld verstärken.
"Fast alle Ausgaben zeigten stereotype ultraorthodoxe Juden: Männer mit Bärten und schwarzen Hüten, und in vielen Fällen wirkten sie entweder komisch oder bedrohlich", heißt es in dem Beitrag.
Angesichts dieser und anderer kleinerer Pannen scheint es, dass selbst ein Unternehmen mit den außergewöhnlichen Ressourcen von Microsoft immer noch von Fall zu Fall KI-Probleme behebt - was, um fair zu sein, auch für so ziemlich jedes andere KI-Unternehmen ein ständiges Problem ist.