Italien verbietet ChatGPT vorübergehend und untersucht die Datenpraktiken von OpenAI

Die italienische Datenschutzbehörde hat ein vorübergehendes Verbot des weit verbreiteten Dienstes für künstliche Intelligenz ChatGPT verhängt, der durch Microsoft unterstützt wird und sich im Besitz von OpenAI befindet. Die Entscheidung folgt auf eine Untersuchung über die Sammlung persönlicher Daten von Nutzern in Italien durch OpenAI. 

Auslöser für die behördlichen Maßnahmen war eine Sicherheitsverletzung in der vergangenen Woche, bei der Gespräche von Nutzern und bestimmte Finanzdaten offengelegt wurden. Über einen Zeitraum von neun Stunden wurden unter anderem Namen, Rechnungsadressen, Kreditkartentypen, Ablaufdaten und die letzten vier Ziffern der Kreditkartennummern veröffentlicht. Wie die Financial Times berichtet, wurden diese Informationen in einer E-Mail von OpenAI an einen von der Sicherheitsverletzung betroffenen Kunden veröffentlicht.

OpenAI, das von CEO Sam Altman geleitet wird, hat nun 20 Tage Zeit, um auf das Verbot zu reagieren und die Maßnahmen aufzuzeigen, die es ergriffen hat, um diese Bedenken auszuräumen. Sollte das Unternehmen diese Frist nicht einhalten, droht ihm eine Geldstrafe von bis zu 20 Millionen Euro. 

Dies ist das erste behördliche Vorgehen gegen den beliebten Chatbot, da sich die Behörden weltweit mit der zunehmenden Verbreitung von generativen KI-Diensten auseinandersetzen. Branchenexperten haben Bedenken wegen der riesigen Datenmengen geäußert, die von Sprachmodellen wie ChatGPT gesammelt werden. Innerhalb von zwei Monaten nach dem Start meldete OpenAI über 100 Millionen monatlich aktive Nutzer. Microsofts Suchmaschine Bing, die ebenfalls auf OpenAI-Technologie basiert, verzeichnete innerhalb von zwei Wochen nach ihrer Veröffentlichung im Januar mehr als 1 Million Nutzer in 169 Ländern.

OpenAI hat bereits früher behauptet, dass es sich mit Cybersicherheitsproblemen im Zusammenhang mit Informationslecks befasst hat. Während der laufenden Untersuchung ist es dem Unternehmen jedoch untersagt, Daten von italienischen Nutzern über ChatGPT zu verarbeiten.

Die italienische Aufsichtsbehörde hat die Untersuchung eingeleitet, weil es keine Rechtsgrundlage für die groß angelegte Sammlung und Speicherung personenbezogener Daten zum Zwecke des Trainings der ChatGPT zugrunde liegenden Algorithmen gibt. Die Aufsichtsbehörde stellte außerdem fest, dass ChatGPT nicht durchgängig genaue Informationen bereitstellte, was zu einem möglichen Missbrauch personenbezogener Daten führte.

Darüber hinaus kritisierte die Aufsichtsbehörde, dass OpenAI nicht über einen Filter verfügt, der sicherstellt, dass Kinder unter 13 Jahren den Dienst nicht nutzen. Die Aufsichtsbehörde behauptete, dass minderjährige Kinder Inhalten und Informationen ausgesetzt sind, die für ihr Selbstbewusstsein nicht geeignet sind.

Diese Entwicklung kommt zu einem Zeitpunkt, an dem prominente Persönlichkeiten wie Elon Musk und der KI-Pionier Yoshua Bengio ein sechsmonatiges Moratorium für die Entwicklung von Systemen fordern, die leistungsfähiger sind als das kürzlich auf den Markt gebrachte GPT-4, und dabei auf erhebliche gesellschaftliche Risiken hinweisen. Einige Experten halten diese Forderung für heuchlerisch, da sie darauf abzielt, dass KI-"Nachzügler" zu OpenAI aufschließen können, während große Technologieunternehmen aggressiv um die Einführung von KI-Produkten wie ChatGPT und Googles Bard konkurrieren.

Derzeit werden generative KI-Technologien durch bestehende Daten- und Digitalisierungsgesetze wie die Datenschutz-Grundverordnung und das Gesetz über digitale Dienste geregelt. Die Europäische Union bereitet jedoch eine Gesetzgebung speziell für die Nutzung von KI in Europa vor, wobei Unternehmen, die gegen diese Vorschriften verstoßen, mit Geldstrafen von bis zu 30 Millionen Euro oder 6% des weltweiten Jahresumsatzes belegt werden können.