KI-KriminalitÀt, Welt

KI-KriminalitÀt kostet die Welt 580 Milliarden Euro

23.03.2026 - 01:39:52 | boerse-global.de

Ein Branchenreport zeigt einen massiven Anstieg KI-gesteuerter FinanzkriminalitÀt mit SchÀden von fast 580 Milliarden US-Dollar. Deepfakes und automatisierte Angriffe stellen neue Herausforderungen dar.

KI-KriminalitĂ€t kostet die Welt 580 Milliarden Euro - Foto: ĂŒber boerse-global.de
KI-KriminalitĂ€t kostet die Welt 580 Milliarden Euro - Foto: ĂŒber boerse-global.de

Die globale FinanzkriminalitĂ€t hat durch kĂŒnstliche Intelligenz ein neues, bedrohliches Ausmaß erreicht. Ein aktueller Branchenreport beziffert die SchĂ€den fĂŒr 2025 auf fast 580 Milliarden US-Dollar. Gleichzeitig warnen Behörden vor einer Welle hochprofessioneller Betrugsmaschen.

Explosionsartiges Wachstum KI-gesteuerter KriminalitÀt

Der Global Financial Crime Report 2026 der Nasdaq-Tochter Verafin liefert alarmierende Zahlen: Weltweite Verluste durch Bankbetrug und Betrugsmaschen summierten sich im vergangenen Jahr auf 579,4 Milliarden US-Dollar. Das ist ein Anstieg von mehr als neun Prozent im Vergleich zu vor zwei Jahren. Den Löwenanteil der SchÀden, rund 517 Milliarden Dollar, trugen die Banken selbst. Besonders betroffen ist die Kategorie der Betrugsmaschen, die um 19,3 Prozent auf etwa 62 Milliarden Dollar zulegte.

Anzeige

Angesichts der explodierenden Schadenssummen durch KI-gesteuerte KriminalitĂ€t rĂŒckt der Schutz privater EndgerĂ€te immer mehr in den Fokus. Dieser kostenlose Ratgeber zeigt Ihnen, wie Sie WhatsApp, Online-Banking und Co. mit fĂŒnf einfachen Maßnahmen effektiv absichern. 5 sofort umsetzbare Schutzmaßnahmen entdecken

„KĂŒnstliche Intelligenz ist heute in fast jedem Bereich des tĂ€glichen BetrugsgeschĂ€fts prĂ€sent“, stellt Colin Parsons, Leiter der Betrugsproduktstrategie bei Nasdaq Verafin, fest. Diese EinschĂ€tzung teilen andere Sicherheitsexperten. Das Unternehmen Pindrop verzeichnete bei seinen Kunden im letzten Jahr einen Anstieg KI-gesteuerter Angriffe um sagenhafte 1.210 Prozent. Deren CEO, Vijay Balasubramaniyan, spricht von einem Wendepunkt: Betrug habe sich von einem manuellen Prozess zu einer automatisierten Lieferkette entwickelt.

Deepfakes und „Synthetisches Vertrauen“ als neue Waffen

Die Methoden der Kriminellen werden immer raffinierter. Statt einfacher Phishing-Mails setzen sie zunehmend auf „Synthetisches Vertrauen“. Dabei werden mit generativer KI tĂ€uschend echte Deepfake-Audios und -Videos erstellt, um etwa FĂŒhrungskrĂ€fte, Familienmitglieder oder Beamte zu imitieren.

Ein FBI-Warnhinweis aus Mai 2025 beschrieb eine Kampagne gegen ehemalige US-Regierungsbeamte, die mit KI-generierten Sprachnachrichten arbeitete. Solche „Vishing“- oder „Smishing“-Angriffe zielen darauf ab, eine Vertrauensbasis zum Opfer aufzubauen, bevor Malware eingeschleust oder Zugangsdaten abgegriffen werden. Allein im ersten Quartal 2025 ĂŒberstieg die Zahl der Deepfake-VorfĂ€lle im Finanzsektor die Gesamtzahl des Vorjahres. Rund 53 Prozent der FachkrĂ€fte in der Branche geben an, bereits Opfer eines Deepfake-Angriffs geworden zu sein.

Automatisierte Betrugs-Kits und GeldwÀsche per KI

Die Demokratisierung von KI-Tools hat die EinstiegshĂŒrde fĂŒr Cyberkriminelle gesenkt. So berichtet Forbes aktuell von einer Welle von Betrugsmaschen in den USA, bei denen ĂŒber im Dark Web erhĂ€ltliche „Mautstellen“-Kits Autofahrer angegriffen werden. Diese BaukĂ€sten ermöglichen es auch technisch weniger versierten BetrĂŒgern, realistische Textnachrichten und gefĂ€lschte Websites zu erstellen, die offizielle Systeme nachahmen.

Auf der RĂŒckseite ihrer Operationen nutzen Kriminelle KI, um ihre Effizienz zu steigern. Große Sprachmodelle (LLMs) automatisieren das Testen gestohlener Zugangsdaten in großem Maßstab und identifizieren Schwachstellen in Smart Contracts. Bei der GeldwĂ€sche erlauben es KI-Agenten, gestohlene Gelder auf Dutzende Adressen aufzuteilen und durch komplexe LiquiditĂ€tspools zu schleusen, bevor menschliche Überwacher die Bewegung bemerken. Nach einem großen Diebstahl von Ethereum von der Bybit-Börse wuschen automatisierte Tools so innerhalb von 48 Stunden mindestens 160 Millionen Dollar.

Anzeige

WĂ€hrend Kriminelle immer professionellere Tools zur Manipulation nutzen, bleiben grundlegende Sicherheitsupdates und automatisierte PrĂŒfungen auf dem Smartphone oft auf der Strecke. Welche fĂŒnf Schritte Experten empfehlen, um eine hĂ€ufig unterschĂ€tzte SicherheitslĂŒcke zu schließen, erfahren Sie in diesem kostenlosen Leitfaden. Kostenlosen Sicherheits-Ratgeber herunterladen

Die Gegenwehr: KI gegen KI im Sicherheitswettlauf

Die Tech-Branche und Aufsichtsbehörden rĂŒsten auf. OpenAI hat seine Sicherheitspraktiken neu structured und ein unabhĂ€ngiges Aufsichtsgremium fĂŒr Sicherheit eingerichtet. Dieses kann die Veröffentlichung neuer Modelle verzögern, wenn Sicherheitsbedenken nicht ausgerĂ€umt sind.

Auch Google und Microsoft integrieren fortsrittliche, KI-gesteuerte AbwehrfĂ€higkeiten in ihre Sicherheitsportfolios. Googles „Gemini in Security Operations“ unterstĂŒtzt Analysten bei Untersuchungen, wĂ€hrend „Gemini in Threat Intelligence“ konversationelle Suchen in riesigen Bedrohungsdatenbanken ermöglicht. Eine Allianz von Tech-Giganten arbeitet zudem an einheitlichen Cybersicherheitsstandards, um sicherzustellen, dass die defensive KI mit der Entwicklung bei den Angreifern Schritt hĂ€lt.

Professionelle Schattenwirtschaft und ungleiche Betroffenheit

Die aktuelle Welle KI-gestĂŒtzter KriminalitĂ€t markiert eine Professionalisierung der digitalen Unterwelt. Cyberkriminelle agieren zunehmend wie legitime Unternehmen und nutzen etwa „Desinformation-as-a-Service“. Ron Kerbs, CEO von Kidas, verweist auf BetrĂŒger, die sich mit Hilfe von KI als Personalvermittler ausgeben, um ahnungslose Jobsuchende auf gefĂ€lschte Bewerbungsformulare zu locken.

Die finanziellen Folgen treffen verschiedene Bevölkerungsgruppen unterschiedlich stark. JĂŒngere Menschen werden zwar hĂ€ufiger Opfer von Betrug, doch die individuellen finanziellen Verluste sind bei Ă€lteren Menschen deutlich höher. Grund sind oft „Enkeltrick“-Maschen, bei denen mit geklonter Stimme von Familienmitgliedern eine Notlage vorgetĂ€uscht wird. Fast 71 Prozent der US-Unternehmen melden einen Anstieg KI-gestĂŒtzter Betrugsversuche – eine der grĂ¶ĂŸten Herausforderungen fĂŒr Finanzchefs.

Ausblick: Der Wettlauf der Algorithmen hat begonnen

Die Prognosen sind dĂŒster: Das Volumen der CyberkriminalitĂ€t könnte bis 2028 um 50 Prozent steigen, die globalen Gesamtkosten bis Ende des Jahrzehnts auf Billionen Dollar. Angesichts immer zugĂ€nglicherer KI-Tools muss der Fokus fĂŒr Unternehmen und Privatpersonen auf „Zero-Trust“-Architekturen und verlĂ€sslichen Verifikationsmethoden jenseits des primĂ€ren Kommunikationsweges liegen.

Die National Cybersecurity Alliance betont, dass sichere Praktiken mit der rasanten KI-Verbreitung in der Bevölkerung nicht Schritt halten. Experten raten Familien und Unternehmen, geheime Codewörter fĂŒr die IdentitĂ€tsprĂŒfung am Telefon zu vereinbaren. Organisationen sollten zwingend Multi-Faktor-Authentifizierung (MFA) einfĂŒhren und Software nutzen, die versteckten Text in Dokumenten erkennt. Der Kampf um die digitale Sicherheit im Jahr 2026 ist ein Wettlauf der Algorithmen.

So schÀtzen die Börsenprofis Aktien ein!

<b>So schÀtzen die Börsenprofis   Aktien ein!</b>
Seit 2005 liefert der Börsenbrief trading-notes verlĂ€ssliche Anlage-Empfehlungen – dreimal pro Woche, direkt ins Postfach. 100% kostenlos. 100% Expertenwissen. Trage einfach deine E-Mail Adresse ein und verpasse ab heute keine Top-Chance mehr. Jetzt abonnieren.
FĂŒr. Immer. Kostenlos.
boerse | 68962976 |