Bild: Check Point Research

KI-gesteuerte Angriffe wie Deepfakes, Data Poisoning, kriminelle KI-as-a-Service und das Aufkommen von "Dark LLMs" haben massiv zugenommen. Schweizer Unternehmen waren in den letzten sechs Monaten 1’256 Angriffen pro Woche ausgesetzt, wie der erste "AI Security Report" belegt, den Check Point auf seiner Engage-Veranstaltung in Bern präsentiert hat.

Der von Lotem Finkelstein, Director of Threat Intelligence & Research bei Check Point, vorgestellte Bericht unterstreicht: KI ist nicht mehr nur ein Werkzeug für Innovationen, sondern auch eine Waffe für Angreifer. Von gehackten generativen KI-Konten, die im Darknet gehandelt werden, bis hin zu Desinformationskampagnen, die KI-Systeme vergiften, zeigen die Ergebnisse, wie Bedrohungsakteure die traditionellen Sicherheitsmassnahmen übertreffen.

Check Point zufolge sind die Cyberangriffe in der Schweiz im ersten Quartal dieses Jahres um 113 Prozent im Vergleich zum Vorjahr gestehen. Dies entspricht dem Doppelten des globalen Durchschnitts. Konkret sahen sich Schweizer Unternehmen in den letzten sechs Monaten durchschnittlich mit 1’256 Angriffen pro Woche konfrontiert, was ein deutliches Zeichen für die sich verändernde Cyber-Bedrohungslandschaft sei, so Check Point.

Mehr als 150 Cybersecurity-Experten, Partner und Vordenker trafen sich in Bern zur lokalen Engage-Konferenz, um die neuesten Trends, Strategien und Innovationen der Branche zu diskutieren. Roi Karo, der neue Head of Strategy von Check Point, stellte den "Open Garden Approach" des Unternehmens vor, der eine hybride Mesh-Architektur und die SASE-Technologie nutzt, um die Sicherheit über Cloud-, On-Premise- und Remote-Umgebungen hinweg zu vereinheitlichen.

Die wichtigsten Erkenntnisse aus dem AI Security Report 2025:
1. KI als zweischneidiges Schwert in der Wirtschaft:
-- 51 Prozent der Unternehmen nutzen inzwischen monatlich KI-Tools - aber 1 von 80 Prompts in Unternehmensnetzwerken enthält hochsensible Daten.
-- 7,5 Prozent der KI-Interaktionen beinhalten potenziell sensible Inhalte, was zu Compliance- und Datenleck-Risiken führt.

2. Cyberkriminalität wird mit "AI-as-a-Service“ intelligenter:
-- Im Dark Web integrieren Dienste für Phishing, wie GoMailPro mit ChatGPT, kosten 500 USD/Monat.
-- KI-Tools für Sprachbetrug kosten bis zu 20’000 USD, während Deepfake-Imitationen in Echtzeit verfügbar sind und interaktiv werden.

3. Markt für gestohlene KI-Zugänge boomt:
-- Zugangsdaten für KI-Tools wie ChatGPT werden zunehmend über Phishing und Infostealer gestohlen, um Malware zu generieren oder Inhaltsbeschränkungen zu umgehen.

4. Desinformation und KI-Poisoning:
-- Eine russische Kampagne erstellte im Jahr 2024 3,6 Millionen Desinformationsartikel, um Chatbot-Ausgaben zu manipulieren.
-- Diese vergifteten Artikel tauchten in 33 Prozent der KI-Chatbot-Antworten auf, was systemische Schwachstellen in LLMs offenbart.

5. Autonome Erstellung von Malware:
-- Bedrohungsgruppen wie Funksec nutzen KI für 20 Prozent ihrer Operationen, einschliesslich der Erstellung von DDoS-Skripten und der Analyse gestohlener Daten.
-- KI-gestützte Tools filtern jetzt gestohlene Zugangsdaten für den Weiterverkauf und verbessern so die Zielgruppenansprache und Monetarisierung.

6. Aufstieg der Dark LLMs:
-- Gehackte oder speziell geschulte Modelle wie HackerGPT, FraudGPT und GhostGPT wurden entwickelt, um ethische KI-Schutzmechanismen zu umgehen.
-- Diese Tools werden über Dark-Web-Marktplätze verkauft und bieten Abonnementmodelle, Benutzerhandbücher und umfassenden Support.

Auswirkungen für Verteidiger

"Der Einsatz von KI in der Cyberkriminalität geht über die Theorie hinaus - er verändert die Angriffsstrategien auf allen Ebenen", betont Lotem Finkelstein. "Sicherheitsteams müssen jetzt KI-gestützte Erkennung und mehrschichtige Identitätsüberprüfung integrieren, um sich gegen Deepfake-Täuschung und Modellmanipulation zu schützen. Informiert zu sein, ist der erste Schritt, um sicher zu bleiben."

Während Länder wie die Türkei (68 Prozent) und Österreich (66 Prozent) bei der Nutzung von KI in Unternehmen führend sind, rangiert die Schweiz mit nur 39 Prozent am unteren Ende der Skala - womit sowohl die Produktivität als auch die Auswirkungen von KI auf die Bedrohungslage unterschätzt werden könnten.

Zum "AI Security Report": https://engage.checkpoint.com/2025-ai-security-report

Lotem Finkelstein präsentierte in Bern den ersten 'AI Security Report' von Check Point (Bild: zVg)
Lotem Finkelstein präsentierte in Bern den ersten 'AI Security Report' von Check Point (Bild: zVg)