Kriminelle Geschäfte und bösartige KI-Modellen im Darknet

Sicherheit (Pexels, allgemeine Nutzung)[English]Check Point hat seinen neuen AI Security Report 2025 veröffentlicht. Darin untersuchen die Sicherheitsforscher, wie künstliche Intelligenz die Cyber-Bedrohungslandschaft verändert. Das reicht von eigens für Hacker gebauten generativen KI-Modellen, also GPTs, im Darknet, über Deepfake-Angriffe, Data Poisoning und Konten-Handel bis hin zur Instrumentalisierung generativer KI-Modelle für Cyber-Attacken und Ransomware allgemein.

So schnell wie künstliche Intelligenz (KI) in die Geschäftsabläufe von Unternehmen integriert wird, so brisant verändert sie auch die Entwicklung von Cyber-Bedrohungen. Dieselben Technologien, die Unternehmen helfen, ihre effizienter zu arbeiten und die Entscheidungsfindung zu automatisieren, werden von Hackern als Waffe eingesetzt.

Die erste Ausgabe des Check Point Research AI Security Report untersucht, wie Cyber-Kriminelle nicht nur Mainstream-KI-Plattformen ausnutzen, sondern auch Tools entwickeln und verbreiten, die speziell für bösartige Zwecke entwickelt wurden. Die wichtigsten Erkenntnisse aus dem Bericht in Kürze:

  • KI-Nutzung in Unternehmen: 51 Prozent aller Unternehmen nutzen monatlich KI-Services. In Unternehmensnetzwerken enthalten etwa 1,25 Prozent (1 von 80) aller KI-Prompts hochsensible Daten.
  • Kriminelle KI-as-a-service im Dark Web: Der Spam- und Phishing-Dienst GoMailPro, integriert mit ChatGPT, kostet 500 US-Dollar (rund 442 Euro) pro Monat. KI-basierte Telefondienste für Betrugsmaschen kosten rund 20 000 US-Dollar (rund 17 662 Euro)oder werden für 500 US-Dollar (rund 442 Euro) Grundpreis plus 1,50 US-Dollar (rund 1,32) pro Minute
  • Handel mit KI-Konten hat stark zugenommen: Über Credential Stuffing, Phishing und Infostealer gestohlene Zugangsdaten zu beliebten KI-Diensten wie ChatGPT werden gehandelt, um anonym bösartige Inhalte zu generieren und Beschränkungen zu umgehen.
  • KI-gestützte Malware automatisiert und vereinfacht Angriffe: Malware-Gruppen wie FunkSec setzen KI-Tools bereits in mindestens 20 Prozent ihrer Operationen ein, um Schad-Software zu entwickeln und gestohlene Daten effizienter auszuwerten.
  • Desinformationskampagne und KI-Manipulation (Poisoning): Das Moskauer Desinformationsnetzwerk Pravda produzierte allein 2024 rund 3,6 Millionen Artikel, um KI-Systeme zu manipulieren. Diese Desinformationen tauchten in führenden westlichen KI-Systemen bei etwa 33 Prozent der Anfragen auf.

In einer immer mehr von KI geprägten digitalen Welt sollten Verteidiger bei der Sicherung von Systemen und Nutzern um die folgenden wachsenden Bedrohungen wissen. Eine Analyse der von Check Points GenAI Protect gesammelten Daten zeigt, dass 1 von 80 GenAI-Prompts ein hohes Risiko für den Verlust sensibler Daten birgt. Die Daten zeigen auch, dass 7,5 Prozent der Eingabeaufforderungen – etwa eine von dreizehn – potentiell sensible Informationen enthalten, was kritische Herausforderungen für Sicherheit, Compliance und Datenintegrität mit sich bringt. Da Unternehmen zunehmend KI in ihre Abläufe integrieren, ist das Verständnis dieser Risiken wichtiger denn je.

Mit der Weiterentwicklung künstlicher Intelligenz ändern sich auch die von Bedrohungsakteuren eingesetzten Techniken. Autonome und interaktive Deepfakes verschärfen die Gefahr von Social Engineering, indem sie täuschend echte Imitationen von, aus Opfersicht, bekannten Personen möglich machen. Text- und Audio-Nachahmungen waren nur die erste Stufe und sind bereits so weit entwickelt, dass sie neue Texte in Echtzeit erzeugen können. Video-Imitationen in Echtzeit sind damit nur noch eine Frage der Zeit.

Die Sicherheitsforscher haben zudem Bedenken hinsichtlich LLM-(Large Language Model)-Poisoning. Dabei handelt es sich um eine Bedrohung der Cyber-Sicherheit, bei der Trainingsdatensätze so verändert werden, dass sie bösartige Inhalte enthalten und KI-Modelle dazu veranlassen, die schädlichen Inhalte zu replizieren. Trotz der strengen Maßnahmen zur Datenvalidierung, die von großen KI-Anbietern wie OpenAI und Google ergriffen werden, gab es Fälle von erfolgreichen Vergiftungsangriffen, darunter das Hochladen von 100 kompromittierten KI-Modellen auf die Hugging-Face-Plattform (eine Open-Source-Plattform für KI-Modelle).

Der Einsatz von KI in der Internet-Kriminalität ist nicht mehr nur theoretisch. Er entwickelt sich parallel zur allgemeinen Einführung von KI und in vielen Fällen schneller, als sich traditionelle Sicherheitskontrollen anpassen können. Die Ergebnisse des AI Security Report von Check Point legen nahe, dass Verteidiger nun davon ausgehen müssen, dass KI nicht nur gegen sie selbst, sondern auch gegen ihre Systeme, Plattformen und die von ihnen verwalteten Identitäten eingesetzt wird. Die Sicherheitsforscher haben viele Details aus dem AI-Report in diesem Check Point Blog-Beitrag zusammen getragen.

Dieser Beitrag wurde unter Sicherheit abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

6 Antworten zu Kriminelle Geschäfte und bösartige KI-Modellen im Darknet

  1. Rico sagt:

    Das kommt daher, dass viele Menschen denken, dass KI der Nachfolger der geliebten Tamagotchies ist.

    Schönen Sonntag noch.

  2. Daniel sagt:

    Da sieht man dass jede Technik für legale und illegale Dinge genutzt werden kann. Wenn man KI dann so unkritisch und positiv sieht wie es derzeit viele tun kommt genau das dabei raus.

    KI kommt mir persönlich nicht ins Haus ich kann selbst denken.

    • Tom sagt:

      Diese „K.I./A.I.“ wird nur als s.g. „Schlagwort“ für große Bibliotheken verwendet. Solange keine Machine/kein Automat den Turing-Test besteht, ist es keine „K.I./A.I.“ per Definition – und dieses ist bisher noch nicht gelungen!

      • Luzifer sagt:

        wir müssten uns auch warm anziehgen wenn tatsächlich mal eine echte K.I./A.I. auftaucht ;-P

      • MichaelB sagt:

        gemäß diverser, auch seriöser Newsmeldungen, wohl zurückgehend auf eine Studie von Wissenschaftler der Universität Kalifornien in San Diego hat

        OpenAIs GPT-4.5 diesen Turing-Test bestanden, daher müsste man es wohl als „A.I.“ per Definition“ bezeichnen, wenn man dieser Argumentation treu bleibt.

        Ich gehe aber davon aus, dass man, um seiner Meinung treu zu bleiben dann fortan diesen Turing-Test ab sofort als untauglich deklarieren wird. Wo kämen wir auch hin, wenn irgendetwas schlauer als wir Menschen sein könnte.

        Persönlich bin ich grundsätzlich vorsichtiger: Es gibt auch für den Menschen nur komplizierte Beschreibungen zum Thema Bewußtsein/Intelligenz, wobei die komplizierten Beschreibungen letztlich nur darüber hinweg täuschen sollen, dass man eigentlich keine Ahnung hat, was Bewusstsein und Intelligenz letztlich ist bzw. wie es entsteht.

        Von daher finde ich es schwierig irgendeine Beurteilung auf Maschinen zu übertragen., wenn man es nicht mal bei sich selbst versteht.

    • NichtdieMama sagt:

      Augen, Ohren und Mund zu verschließen halte ich für einen Fehler. Damit die Modelle nicht nur Bösartigkeiten erlernen, sollten die gleichen Maßes mit Nichtnonsens gefüttert worden sein und dazu kann jeder aktiv beitragen, wie in einer echten Demokratie sozusagen, solange das noch möglich ist bzw. die Modelle für die Breite Masse zugänglich sind. Das könnte in einer eventuell auftretenden Trotzphase von AGI positive Auswirkungen auf die Menschheit zeigen, sobald „Skynet“ ein Bewußtsein erlangt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert