KI-Apps legen Millionen Nutzerdaten offen
27.01.2026 - 00:53:11Sicherheitsforscher decken massive Datenlecks bei populären KI-Produktivitätsapps auf. Grund sind oft schlicht falsch konfigurierte Cloud-Server ohne Passwortschutz.
Offene Server als Einfallstor
Die Experten fanden gravierende Schwachstellen bei mehreren KI-Anwendungen in den Stores von Google und Apple. Die primäre Ursache: Datenbanken, die ohne jegliche Sicherung betrieben wurden. Dadurch lagen zeitweise Millionen sensibler Dateien für jeden im Internet einsehbar.
Zu den betroffenen Apps zählen Namen wie “Chat & Ask AI”, “Genie – AI Chatbot” und “AI Chatbot Assistant”. In einigen Fällen sollen bis zu hundert Millionen Dateien ungeschützt gewesen sein – darunter Chat-Verläufe, hochgeladene Dokumente und private Notizen.
Die EU‑KI‑Verordnung ist seit August 2024 in Kraft — viele Anbieter und Unternehmen unterschätzen die neuen Kennzeichnungs‑ und Dokumentationspflichten. Unser kostenloser Umsetzungsleitfaden erklärt verständlich, welche Risikoklassen gelten, welche Nachweisdokumente erforderlich sind und welche Schritte Sie jetzt sofort umsetzen sollten, um Bußgelder und Reputationsschäden zu vermeiden. Der Leitfaden enthält praktische Vorlagen und Beispiele für die Umsetzung im Alltag. Jetzt kostenlosen KI‑Verordnung‑Leitfaden herunterladen
Datenschutz bleibt auf der Strecke
Die Vorfälle werfen ein grelles Licht auf den Umgang mit Daten in der KI-Ära. Viele Nutzer gehen fälschlicherweise davon aus, dass ihre eingegebenen Inhalte vertraulich behandelt werden. Doch die Realität sieht oft anders aus.
- Sobald personenbezogene Daten verarbeitet werden, greift die DSGVO.
- Viele Anbieter halten sich jedoch nicht an transparente Datenverarbeitung.
- Experten raten dringend davon ab, sensible Daten wie Passwörter oder Verträge in solche Systeme einzugeben.
Die Verantwortung liegt nicht nur bei den Anbietern. Auch Nutzer müssen ein Bewusstsein für digitale Hygiene entwickeln und Datenschutzerklärungen prüfen.
KI-gestützte Angriffe nehmen zu
Parallel zur Technologie entwickelt sich auch die Bedrohungslandschaft weiter. Angreifer nutzen neue Methoden wie “Prompt-Injektionen” oder Datenvergiftung, um KI-Modelle zu manipulieren. Ziel ist es, an sensible Informationen zu gelangen oder das System zu missbrauchen.
Als Reaktion darauf rüsten Sicherheitsunternehmen auf. Microsoft etwa entwickelt mit “Defender for Cloud Apps” Werkzeuge, die mithilfe von KI verdächtige Aktivitäten in Echtzeit erkennen und warnen sollen.
Der schmale Grat zwischen Nutzen und Risiko
Die jüngsten Vorfälle zeigen: Selbst die Überprüfungsmechanismen großer App-Stores können die Sicherheit der Server-Infrastruktur nicht garantieren. Ein Teil der Verantwortung liegt damit bei den Nutzern und Unternehmen.
Für Unternehmen ist die Einhaltung der DSGVO nicht nur eine Pflicht, sondern entscheidend für das Vertrauen. Klare Richtlinien für den KI-Einsatz und Auftragsverarbeitungsverträge (AV-Verträge) werden immer wichtiger.
Bleibt die Frage: Wird der Datenschutz zum Standard, bevor das nächste große Leck passiert?
PS: Wenn KI-Apps Kundendaten verarbeiten, reichen reine Sicherheitsmaßnahmen nicht aus — Sie müssen auch regulatorische Anforderungen erfüllen. Das kompakte E‑Book zur EU‑KI‑Verordnung fasst Pflichten, Übergangsfristen und Dokumentationspflichten zusammen und liefert praktische Checklisten zur Risikobewertung und Kennzeichnung. Das E‑Book beinhaltet Checklisten und Beispiele, die direkt in Projekten genutzt werden können, damit Sie Nutzer schützen und rechtliche Risiken minimieren. Jetzt KI‑Verordnung E‑Book kostenlos herunterladen


