Nutzer sollen private Fotos hochladen
Facebooks neue KI-Funktion sorgt für Datenschutzbedenken
Facebook, das soziale Netzwerk von Meta, testet derzeit eine neue KI-Funktion, die Nutzern bei der Erstellung von Storys helfen soll – und dabei Zugriff auf Fotos erlaubt, die nicht direkt auf Facebook hochgeladen wurden. Ziel ist es, automatisch Collagen, Rückblicke oder Story-Ideen vorzuschlagen.
Wie zuerst von TechCrunch berichtet wurde, erhalten Nutzer beim Erstellen einer neuen Story einen Hinweis, der um Erlaubnis bittet, Fotos aus der eigenen Galerie zur Cloud-Verarbeitung hochzuladen. Dabei sollen Informationen wie Zeitpunkt, Ort oder Themen ausgewertet werden, um passende Vorschläge zu generieren.
Facebook verspricht:
„Nur du kannst die Vorschläge sehen. Deine Medien werden nicht für personalisierte Werbung genutzt. Wir prüfen die Inhalte zur Sicherheit und Integrität.“
Doch: Wer zustimmt, erlaubt damit auch, dass Metas KI die eigenen Medien und Gesichtszüge analysieren darf – wie es in den zugehörigen KI-Nutzungsbedingungen festgelegt ist.
Laut Meta ist die Funktion derzeit nur für ausgewählte Nutzer in den USA und Kanada verfügbar. Sie sei optional und könne jederzeit deaktiviert werden. Dennoch ist klar: Unternehmen wie Meta treiben die Integration von KI massiv voran – oft auf Kosten der Privatsphäre.
Selbst wenn die Daten „nicht für Werbung“ verwendet werden, gibt es erhebliche Bedenken bei der Datenspeicherung, Zugänglichkeit und Weiterverwendung:
Im schlimmsten Fall bedeutet das: Nutzer geben der KI stillschweigend Zugriff auf ihr gesamtes Fotoarchiv – inklusive sensibler persönlicher Informationen, die daraus abgeleitet werden können.
Diese Entwicklung steht im Zusammenhang mit einer umfassenden Expansion generativer KI in Meta-Produkten – auch in WhatsApp, wo etwa neue Funktionen zum Zusammenfassen ungelesener Nachrichten eingeführt wurden. Meta verspricht hier ein „datenschutzfreundliches Vorgehen“, aber was genau das bedeutet, bleibt unklar.
In Europa mehren sich die kritischen Stimmen. Erst kürzlich rief die Berliner Datenschutzbehörde Apple und Google dazu auf, Apps des chinesischen Anbieters DeepSeek aus ihren Stores zu entfernen. Der Grund: Unzulässige Datenübertragungen nach China, bei denen Texteingaben, Chatverläufe, Standortdaten und Dateien verarbeitet und auf chinesischen Servern gespeichert werden.
Auch in den USA wächst die Verflechtung zwischen KI und sicherheitskritischen Anwendungen. So erhielt OpenAI kürzlich einen Auftrag über 200 Millionen US-Dollar vom US-Verteidigungsministerium zur Entwicklung von KI-Prototypen für militärische und administrative Zwecke – inklusive Anwendungen für proaktive Cyberabwehr.
Funktionen wie KI-generierte Collagen oder Story-Vorschläge mögen praktisch erscheinen – sie erfordern jedoch tiefgreifende Einsichten in das digitale Verhalten, die Vorlieben und die privaten Inhalte der Nutzer. Wer solchen Tools Zugriff auf persönliche Daten gewährt, sollte genau prüfen:
✔️ Welche Daten werden erhoben und wie verarbeitet?
✔️ Kann ich die Funktion vollständig deaktivieren?
✔️ Welche Rechte räume ich einem Unternehmen damit ein?
Wir raten Privatpersonen wie Unternehmen:
Vertrauen Sie nicht blind auf Komfortfunktionen – besonders wenn KI-Systeme auf sensible Inhalte zugreifen.
Wenn Sie wissen möchten, welche Risiken für Ihre Daten oder Geräte bestehen, oder wenn Sie Ihre digitalen Systeme absichern möchten, unterstützen wir Sie gerne.