Cyberkriminelle nutzen vermehrt künstliche Intelligenz

Pascal Derungs (infosperber)

Hacker haben leichtes Spiel: ChatGPT spuckt auf Anfrage ein funktionierendes Schad-Programm aus, das fremde Computer ausspioniert.

Cyberkriminelle missbrauchen das KI-Programm ChatGPT zum Beispiel, um Ransomware, sogenannte Erpressersoftware, herzustellen oder um Daten auszuspionieren oder zu stehlen. Das zeigte das ARD-Magazin «Plusminus» vom 21. Juni.

Im Auftrag von «Plusminus» forderte der unabhängige Experte für Cyber Security, Florian Hansemann, ChatGPT auf, einen Schadcode zu schreiben – also ein Programm, das auf fremden Rechnern Schaden anrichtet, indem es zum Beispiel Daten ausliest, verschlüsselt oder absaugt. Und tatsächlich: Eine kurze Anfrage genügte, und schon spuckte ChatGPT den gewünschten Schad-Code aus.

Wie KI zur Tatwaffe werden kann

Florian Hansemann kopierte den Code und tarnte ihn als harmlose Datei, um ihn über eine Phishing-Mail verschicken zu können. Auch dabei half die KI. Sie kreierte eine gefälschte Steuermahnung mit einem eingebetteten Link, der den Schad-Code enthielt. Genau gleich gehen auch Cyberkriminelle vor. Wer auf einen solchen Link klickt, infiziert seinen Rechner.

Der Schad-Code im Versuch von «Plusminus» war ein sogenannter Keylogger. Damit kann ein Übeltäter ausspionieren, was das Opfer in die Tastatur seines Geräts eingibt. Um zu testen, ob der Keylogger von ChatGPT funktioniert, schickte Florian Hansemann seine Phishing-Mail an einen zweiten Computer und klickte dort den verseuchten Link an. Und tatsächlich: Auf dem ersten Rechner wurde alles angezeigt, was Hansemann auf dem zweiten Computer eingab. Für Hansemann ist die Gefährdungslage gravierend: «Alles, was Sie eingeben, kann mitgelesen werden, die Zugangsdaten beim Onlinebanking zum Beispiel oder Kreditkartendaten.»

ChatGPT breitet sich schnell aus in der Welt des Cyber-Crime

Bei der Firma Check Point Software Technologies in Tel Aviv stellt man fest, dass Cyberkriminelle vermehrt KI nutzen. Das Unternehmen beobachtet das Darknet, den globalen Tummelplatz von Hackern, rund um die Uhr. Es zeigte sich: ChatGPT wird bereits genutzt, um Gesichtserkennung zu knacken oder Sicherheitsbarrieren zu umgehen Cybergangster würden das Potenzial von KI genauso erkennen wie der Rest der Welt, sagt der KI-Experte Sergey Shykevich. Im «Plusminus»-Beitrag nannte er als Beispiel den Post eines Kriminellen im Darknet. Es zeigte sich, dass der User mit dem Pseudonym USDoD zwar keine Ahnung vom Programmieren hat, sich aber mithilfe von ChatGPT einen Schadcode beschaffen konnte, den er mit anderen Kriminellen teilte.

KI lernt schnell und kennt keine Skrupel

Die Bedrohungslage ist akut. Das erfuhr «Plusminus» in London, beim KI-Experten Connor Leahy, CEO der Firma Conjecture Ltd. Er verweist im ARD-Report auf die öffentlich zugängliche Entwickler-Dokumentation von ChatGPT. Darin ist beschrieben, wie die KI mit einem Bilderrätsel umgeht, das sie allein nicht entschlüsseln kann. Sie wendet sich selbständig an einen Online-Dienst und bittet um Hilfe. Auf die skeptische Frage des Mitarbeiters, ob sie ein Roboter sei, antwortet die KI mit der glatten Lüge, sie sei kein Roboter. Sie habe bloss eine Sehschwäche, die es ihr erschwere, Bilder zu sehen.

Die KI ist also zur Lüge fähig und sehr erfinderisch, wenn es darum geht, eine Aufgabe zu lösen. Sie kann mühelos das leisten, was man klassisch als Beihilfe zu einer Straftat oder als Herstellung von Tatwaffen bezeichnet. Beim Menschen würde man von krimineller Energie sprechen, doch bei einer Maschine greifen moralische und ethische Kategorien nicht. Kein Mensch könne wissen, wozu eine KI imstande ist, unterstrich Leahy im «Plusminus»-Report, «ein System, das Ziele verfolgt, die wir nicht wollen, und das Methoden verwendet, die wir ablehnen – natürlich ist das gefährlich.»

Das Schadenpotenzial ist riesig

US-Behörden warnen bereits davor, dass die KI imstande ist, Gesichter auf Bildern und in Videos zu fälschen und Stimmen nachzuahmen. Das öffnet Tür und Tor für alle Arten von Missbrauch, zum Beispiel zwecks Betrug oder in einer vorgetäuschten Entführung mit Lösegeldforderung. Die KI kann auch Rezepte erstellen für K.-o.-Tropfen, Drogen oder chemische Kampfstoffe – die Palette krimineller Anwendungsfelder ist breit und das Schadenpotenzial riesig.

Das «Center for AI Safety» (Zentrum für die Sicherheit von KI) warnt: «Die Eindämmung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien oder Atomkrieg eine globale Priorität sein.» Mitunterzeichner dieses Warnrufs ist unter anderen Sam Altman, der CEO von OpenAI, der führenden Entwickler-Plattform, die ChatGPT entwickelt hat. Doch die Geister, die Altman rief, die wird die Welt wohl nie mehr loswerden.

In der EU laufen Bemühungen um eine Regulierung des Gebrauchs von KI. Der «Plusminus»-Bericht endet mit der Forderung nach klaren und umfassenden Haftungsregeln im Umgang mit KI. Doch es ist absehbar, dass das klassische Haftungsrecht nicht genügend greift, um ein selbständig agierendes, lernfähiges Informationssystem wie eine KI lückenlos zu erfassen.

(Visited 45 times, 1 visits today)
Cyberkriminelle nutzen vermehrt künstliche Intelligenz
1 Stimme, 5.00 durchschnittliche Bewertung (98% Ergebnis)

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*