iOS-Apps: Forscher entdecken massives Datenleck bei 165 Programmen
25.01.2026 - 23:55:12Eine alarmierende Sicherheitsstudie stellt Apples Ruf als sichere Plattform infrage. Forscher fanden bei fast allen untersuchten iOS-Apps gravierende Datenlecks – besonders betroffen sind KI-Anwendungen.
Die Cybersecurity-Firma Covert Labs untersuchte 167 beliebte Apps aus dem iOS App Store. Das erschreckende Ergebnis: Ganze 165 Programme leckten aktiv Nutzerdaten. Diese Entdeckung erschüttert das Image von Apples abgeschottetem System als sicherem Hort für Mobilnutzer. Sie wirft dringende Fragen zu den Sicherheitspraktiken von Entwicklern und dem Überprüfungsprozess des App Stores auf.
Die Forscher veröffentlichten ihre Funde auf einer eigens eingerichteten Website, die sie „der unsichere App Store“ nennen. Die Plattform dient als öffentliche Datenbank der betroffenen Apps. Ihr erklärtes Ziel ist es, sowohl Verbraucher als auch Entwickler auf die Risiken aufmerksam zu machen. Covert Labs hat den Entwicklern der gelisteten Apps eine offene Einladung zur Kontaktaufnahme geschickt. Nach einer entsprechenden Beratung zur Behebung der Sicherheitslöcher werden die Programme von der Liste entfernt.
Viele iPhone-Apps enthalten kritische Sicherheitslücken, die persönliche Chats und Kontodaten preisgeben können. Aktuelle Studien zeigen, dass selbst beliebte Apps Daten an Dritte weiterleaken – ein Risiko für Nutzer und Unternehmen. Dieses kostenlose E‑Book erklärt aktuelle Cybersecurity‑Trends, typische Schwachstellen von Mobil‑Apps (inkl. KI‑Anwendungen) und sofort umsetzbare Schutzmaßnahmen, die Sie selbst prüfen können. Jetzt kostenlosen Cyber-Security-Guide herunterladen
KI-Apps im Fokus: 380 Millionen Nachrichten offengelegt
Besonders besorgniserregend ist der Trend bei der aktuellen Flut an KI-gestützten Anwendungen. Viele der datenleckenden Apps fallen in diese Kategorie. Das legt nahe, dass einige Entwickler im Wettlauf um den KI-Boom schnelle Veröffentlichung über solide Sicherheitsmaßnahmen stellten. Diese Eile scheint zu erheblichen Sicherheitslücken geführt zu haben.
Ein besonders gravierender Fall betrifft die App „Chat & Ask AI“. Eine kritische Schwachstelle legte angeblich den gesamten Chat-Verlauf ihrer über 18 Millionen Nutzer offen. Das sind etwa 380 Millionen einzelne Nachrichten mit potenziell höchst persönlichen und sensiblen Inhalten. Die exponierten Daten könnten Gespräche über psychische Gesundheit, Finanzen, Beziehungsprobleme oder medizinische Fragen enthalten – Informationen, die Nutzer nie öffentlich teilen wollten. Dieser Fall unterstreicht die tiefgreifenden Datenschutzimplikationen solcher Lecks.
Unsichere Architektur statt böser Absicht
Laut Bericht resultieren die Datenlecks nicht aus böswilliger Absicht oder dem gezielten Verkauf von Informationen durch die Entwickler. Die Hauptursache scheint vielmehr eine unsichere App-Architektur und nachlässige Sicherheitspraktiken zu sein. Diese Schwachstellen schaffen Einfallstore, die von kundigen Personen leicht entdeckt und ausgenutzt werden können.
Die von Covert Labs identifizierten Probleme sind Teil eines größeren Ökosystem-Problems. Sicherheitsexperten beobachten, dass Entwickler manchmal Abstriche bei der Sicherheit machen, um den App-Start zu beschleunigen. Zwar unterzieht Apple alle Apps einem Review-Prozess vor der Freigabe. Doch jetzt wird die Tiefe der Sicherheitsanalyse infrage gestellt, die vor der öffentlichen Freigabe einer App stattfindet.
Appell an Nutzer und Industrie
Der Bericht ist eine kritische Erinnerung: Keine Plattform ist vollständig vor Sicherheitsrisiken gefeit. Für Verbraucher unterstreicht er die Bedeutung, wählerisch bei heruntergeladenen Apps und erteilten Berechtigungen zu sein. Die Bequemlichkeit moderner Apps – besonders KI-gestützter – kann versteckte Datenschutzkosten haben. iPhone-Nutzer sollten die Liste von Covert Labs prüfen und riskante Apps entfernen.
Für die Tech-Industrie ist dies ein Weckruf. Die Ergebnisse erhöhen den Druck auf Apple, seine Sicherheitsprüfungen möglicherweise zu verschärfen. Gleichzeitig müssen Entwickler einen „Security-by-Design“-Ansatz verfolgen. Sicherheitschecks in den gesamten Entwicklungslebenszyklus zu integrieren – und nicht als Nachgedanken – ist entscheidend, um solche weitverbreiteten Datenlecks künftig zu verhindern.
Mehr Sicherheitsstandards für KI-Anwendungen nötig
In Folge des Berichts liegt der Fokus zunächst auf der Schadensbegrenzung. Die Hoffnung ist, dass betroffene Entwickler umgehend die Schwachstellen beheben. Dieser Vorfall wird die laufenden Debatten über App-Sicherheit, Datenschutz und die Verantwortung von Plattformbetreibern wie Apple befeuern.
Sicherheitsexperten rechnen mit schärferer Prüfung für KI-Apps, die oft hochpersönliche Nutzereingaben verarbeiten. Das rasante Wachstum dieser App-Kategorie erfordert eine entsprechende Entwicklung bei Sicherheitsstandards und Aufsicht. Die Website „der unsichere App Store“ steht als deutliche Warnung vor den aktuellen Risiken – und mahnt zu mehr Vorsicht im digitalen Ökosystem.
PS: Nutzen Sie KI-Apps oder entwickeln Sie welche? Dann sollten Sie die neuen Risiken und Schutzpflichten kennen. Der Gratis-Report zur Cyber‑Security fasst relevante Gesetzesänderungen, typische Angriffsvektoren und pragmatische Schutzschritte zusammen – ideal für Entwickler, IT‑Verantwortliche und besorgte Nutzer. Holen Sie sich die Checkliste mit schnellen Prüfungen für App‑Sicherheit und erste Schutzmaßnahmen. Gratis E‑Book & Checkliste sichern


