Microsofts Verbot der Gesichtserkennung weist auf wachsende Bedenken hinsichtlich des Datenschutzes hin
Microsofts Entscheidung, Polizeidienststellen die Nutzung seines Azure OpenAI Service für die Gesichtserkennung zu untersagen, spiegelt den Kampf der Technologiebranche um ein Gleichgewicht zwischen den Versprechungen und Gefahren der künstlichen Intelligenz (KI) wider.
Der Schritt signalisiert, dass die großen Tech-Unternehmen angesichts der Bedenken über mögliche gesellschaftliche Schäden zunehmend Schutzmaßnahmen für KI-Systeme ergreifen. Experten meinen, dass dies ein Beispiel dafür ist, warum Unternehmen beim Einsatz von KI vorsichtig sein müssen.
Die Gesichtserkennungstechnologie birgt immense Gefahren für die Privatsphäre, weshalb das KI-Gesetz der EU sie als inakzeptables Risiko bezeichnet und ihre Verwendung stark eingeschränkt hat. Auch ohne ein KI-Gesetz auf Bundesebene in den USA müssen sich Unternehmen der KI-Fähigkeiten, die sie entwickeln, bewusst sein und die unnötige Nutzung entsprechend einschränken.
Im vergangenen Jahr warnte die Federal Trade Commission (FTC), dass der zunehmende Einsatz von Biometrie ernsthafte Bedenken hinsichtlich Sicherheit, Datenschutz und Diskriminierung aufwirft.
Zugangssperre
In einer E-Mail an PYMNTS teilte ein Microsoft-Sprecher mit, dass das Unternehmen am Donnerstag (2. Mai) seinen Verhaltenskodex aktualisiert habe. Die neue Formulierung verbietet die Nutzung von Microsofts künstlicher Intelligenz für Gesichtserkennungszwecke durch oder für Strafverfolgungsbehörden in den Vereinigten Staaten.
Microsoft verbietet es, weil es insgesamt immer noch ein gewisses Zögern und Befürchtungen hinsichtlich der Verwendung von Gesichtserkennung durch die Polizei gibt. Einige argumentieren, dass die Gesichtserkennung die Diskriminierung fördert, da sie bei bestimmten Rassen, Nationalitäten und Ethnien weniger genau ist. Dies ist jedoch nicht wahr. Die heutigen Gesichtserkennungstools werden von vertrauenswürdigen Dritten getestet und validiert, und einige Staaten verlangen von den Polizeibehörden, die Gesichtserkennung einsetzen, dass sie nur Software verwenden, die über alle Bevölkerungsgruppen hinweg eine Genauigkeit von mindestens 98 Prozent aufweist.
Ringel zufolge hat die US-Regierung die Bemühungen der Technologieunternehmen um den Schutz der Privatsphäre der Nutzer nicht immer unterstützt. Er wies darauf hin, dass die Regierung in der Vergangenheit Unternehmen wie Apple unter Druck gesetzt habe, Telefone zu entsperren, um die Ermittlungen der Strafverfolgungsbehörden zu unterstützen.