Microsoft warnt vor neuen Angriffen – Hacker verschaffen sich Zugang zu Benutzerkonten
Das neue Jahr ist noch keine zwei Wochen alt, und schon erweist sich die Bedrohung durch KI als ebenso gefährlich wie befürchtet. Mehrere Cyberfirmen warnten davor, dass dies das Jahr 2025 prägen würde, und das FBI gab eine spezifische Warnung vor diesen schnell voranschreitenden KI-Bedrohungen heraus. Dazu gehören ausgefeiltere, personalisierte Phishing-Angriffe und KI-gesteuerte Malware, die Abwehrmechanismen umgehen soll. Nun hat Microsoft davor gewarnt, dass Angreifer einige der leistungsfähigsten KI-Tools, die für einige ihrer Kampagnen zur Verfügung stehen, missbrauchen könnten.
Der Technologiekonzern gab bekannt, dass rechtliche Schritte eingeleitet werden, um die Öffentlichkeit vor missbräuchlichen KI-generierten Inhalten zu schützen. In einem Beitrag von Steven Masada von der Digital Crimes Unit des Unternehmens wurde davor gewarnt, dass ein "ausländischer Cyberkrimineller offen gelegte Kundenanmeldeinformationen“ gesammelt habe, um Zugang zu "generativen KI-Diensten" zu erhalten und die Funktionen dieser Dienste absichtlich zu verändern.
Microsoft gibt an, dass die ausländischen Cyberkriminellen diese KI-Dienste dann ausnutzten und sogar "den Zugang an andere Cyberkriminelle weiterverkauft haben, um gefährliche und illegale Inhalte zu generieren". Das Unternehmen hat alle bekannten Zugänge gesperrt und "Gegenmaßnahmen" ergriffen, zu denen laut eigenen Angaben "verbesserte Sicherheitsvorkehrungen zur weiteren Blockierung solcher böswilligen Aktivitäten" gehören.
Die konkrete Bedrohung ging hier von leistungsstarken KI-Tools aus – darunter der Zugang von Microsoft zu OpenAIs DALL-E-Bildgenerator –, die für Angriffe auf Drittorganisationen eingesetzt wurden. Der größere Zusammenhang ist jedoch noch kritischer. Vor einer Woche berichtete die Financial Times über den Einsatz von KI zur Erstellung bösartiger Phishing-Kampagnen, bei denen Inhalte und Tonfall auf jedes Ziel zugeschnitten wurden, basierend auf den Eigenschaften der Person, von der sie angeblich stammten, durch das Durchsuchen von Social Media und anderen Quellen.
Im vergangenen Jahr gab das Unternehmen eine Empfehlung zum "Schutz der Öffentlichkeit vor missbräuchlichen KI-generierten Inhalten" heraus und warnte, dass "KI-generierte Deepfakes realistisch sind, von fast jedem leicht erstellt werden können und zunehmend für Betrug, Missbrauch und Manipulation eingesetzt werden – insbesondere, um Kinder und Senioren ins Visier zu nehmen".
Da KI immer ausgereifter und zugänglicher wird, nutzen Cyberkriminelle sie, um Betrug zu begehen, der überzeugender, personalisierter und schwerer zu erkennen ist ... Die Risiken für Vertrauen und Sicherheit im Internet waren noch nie so groß wie heute. Jetzt haben wir weitere Hinweise darauf, wie ein Teil dieses KI-Zugriffs stattfindet.