Die KI-Revolution wird uns immense Vorteile bringen — und unvorstellbare neue Herausforderungen. Wir sind abhängiger von Technologie als je zuvor und künstliche Intelligenz beeinflusst die Computersicherheit und den Datenschutz auf grenzenlose Weise.
So beschreibt es Mikko Hyppönen, Principal Research Advisor bei F‑Secure, in unserem eBook ‘Staying ahead of cyber threats in the age of AI’. Die neuesten Daten der US Federal Trade Commission (FTC) zum Thema Geldbetrug untermauern diese Aussage: Betrug durch Hochstapler ist die bedeutendste Betrugskategorie im Jahr 2023.
Berichten zufolge haben US-Verbraucher in nur 12 Monaten 2,7 Milliarden Dollar durch Hochstapler verloren — eine Zahl, die dank des rasanten technologischen Fortschritts und der weiten Verbreitung von künstlicher Intelligenz von Jahr zu Jahr exponentiell gestiegen ist. Doch welche Betrugsmaschen wurden angewandt?
Die 3 gängigsten Betrugsmaschen, die KI verwenden
Betrugsmaschen sind vielfältig, aber alle funktionieren auf ähnliche Weise: Betrüger geben sich als eine andere Person oder Organisation aus, dem oder der Sie vertrauen. So werden Sie dazu bewegt, eine bestimmte Handlung durchzuführen, wie beispielsweise Ihr Geld zu überweisen. Diese Betrugsmaschen sind oft die persönlichsten und intimsten aller Online-Betrügereien und die Hochstapler erscheinen besonders herzlos. Lernen Sie die häufigsten Betrugsmaschen kennen.
1. Phishing und smishing
Haben Sie jemals eine E-Mail mit einem bösartigen Link erhalten, die Sie mit interessantem Inhalt zum Klicken verleiten wollte? Dies nennt sich Phishing. Wenn dies hingegen per Textnachricht oder SMS geschieht, dann ist von Smishing die Rede.
Wie macht künstliche Intelligenz das Ganze noch effektiver?
WormGPT — eine bösartige Alternative zu ChatGPT — ist äußerst effektiv, wenn es um die Erstellung von Phishing- oder Smishing-Angriffen geht, bei denen persönliche Daten gestohlen oder Opfer zur Installation von Malware verleitet werden sollen.
Auch ohne dieses maßgeschneiderte Tool können generative KI-Apps wie ChatGPT verwendet werden, um die Effektivität von Betrugsversuchen zu verbessern. Dank der natürlichen Sprachverarbeitung großer Sprachmodelle kann ein Chatbot in Sekundenschnelle eine professionell klingende E-Mail oder SMS schreiben.
Die Bots können den Text von betrügerischen E-Mails Korrektur lesen und automatisch alle Grammatikfehler beseitigen. Zudem können Sie den Text schnell und präzise in verschiedene Sprachen übersetzen — wodurch sich die potenzielle Zielgruppe einer Betrugsmasche massiv vergrößert.
Wie Sie sich schützen können:
Probieren Sie ChatGPT aus, um aus erster Hand zu erfahren, wie überzeugend eine Unterhaltung mit einem KI-Programm heutzutage sein kann. Allein diese Erkenntnis kann Ihnen helfen, potenzielle Phishing-Angriffe zu vermeiden.
Verwenden Sie sichere Passwörter und eine Multi-Faktor-Authentifizierung, um Ihre Konten zu schützen.
Schützen Sie Ihre Geräte proaktiv vor Malware mit einem Endpunktschutz.
2. Vishing
Vishing bedeutet, dass Sie einen Anruf von einem Hochstapler erhalten, der versucht, an Ihre persönlichen Daten zu gelangen oder Sie auffordert, Geld zu senden. Hierbei gibt sich der Betrüger als jemand aus, den Sie kennen oder dem Sie vertrauen.
Wie macht künstliche Intelligenz das Ganze noch effektiver?
Stellen Sie sich vor, dass Sie mitten in der Nacht einen Anruf von einem Familienmitglied oder engen Freund erhalten, der Sie bittet, ihm zu helfen. Anschließend stellen Sie fest, dass die Stimme per künstlicher Intelligenz gefälscht wurde.
„Da die Möglichkeiten der generativen KI immer zugänglicher werden und die Programme immer weniger Stimmproben benötigen, um die Stimme einer Person zu imitieren, könnten diese maßgeschneiderten Angriffe mit Fake-Stimmen viel häufiger auftreten“, erklärt Laura Kankaala, Threat Intelligence Lead bei F‑Secure.
Wie Sie sich schützen können:
Seien Sie misstrauisch bei unerwarteten oder ungewöhnlichen Geldforderungen, insbesondere wenn diese aus heiterem Himmel nach Geschenkkarten, Kryptowährungen oder einer Überweisung verlangen. Atmen Sie tief durch und versuchen Sie zunächst, Ihre Situation zu googeln, bevor Sie eine Entscheidung treffen und Geld senden.
Im Zeitalter der künstlichen Intelligenz sollten wir — zunächst — allem gegenüber skeptisch sein, sogar Kontaktaufnahmen von Menschen, die uns nahestehen. Denken Sie daran, dass heute fast alles gefälscht werden kann.
Wenn möglich, rufen Sie die Person direkt an. Möglicherweise verwirren Sie die andere Person oder unterbrechen ihren Tiefschlaf, aber zumindest haben Sie so nicht zugelassen, dass Kriminelle Ihre Gutmütigkeit ausnutzen.
3. Deepfakes
Mit KI ist es nicht nur einfach, Texte und Stimmen von Menschen zu imitieren. Mit genügend Rechenleistung und Zeit können Kriminelle gefälschte Bilder und Videos erstellen, bei denen ein Gesicht auf den Körper einer anderen Person übertragen wird und die Person so in fast jeder Situation dargestellt werden kann. Diese gefälschten Bilder werden als Deepfakes bezeichnet.
Wie werden Deepfakes für Internetkriminalität genutzt?
Im Juni 2023 meldete das FBI einen Anstieg an Kriminellen, die diese Technologie nutzen, um explizite Inhalte zu erstellen und sie für Sextortion zu nutzen. Dies ist eine Form der Erpressung, bei der das Opfer mit der Veröffentlichung von sexuell expliziten Bildern oder Videos bedroht wird. Beliebt ist hierbei die Drohung, dass die Deepfake-Videos an Familie und Freunde gesendet werden.
Es gibt keine Grenzen, wie diese Deepfakes eingesetzt werden können: sei es für emotionalen Missbrauch, politische Manipulation oder regelrechten Betrug. Es wurden sogar Deepfake-Videos von Elon Musk auf X veröffentlicht, in denen er über die Investition in eine Kryptowährung spricht an der er nicht beteiligt ist.
Mit sich verbessernden Technologien wird nicht nur die Zahl der Betrugsversuche zunehmen, sondern vermutlich auch deren Qualität — so wird es immer schwieriger, sie zu erkennen.
Wie Sie sich schützen können:
Um zu vermeiden, dass Sie Opfer von Deepfakes werden, empfiehlt das FBI:
Überwachen Sie die Aktivitäten Ihrer Kinder auf Social Media.
Suchen Sie sich regelmäßig selbst im Internet.
Stellen Sie Ihre Social Media Konten auf privat und stärken Sie Ihre Kontosicherheit.
Sollten Sie doch einmal mit Deepfake-Bildern erpresst werden, schlägt Laura Kankaala vor:
Die beste Lösung für Deepfakes ist es, den Forderungen der Betrüger einfach nicht nachzugeben und die Vorfälle stattdessen der Polizei zu melden.
Diese Hochstapler haben es auf mehrere Personen gleichzeitig abgesehen. Daher haben sie wahrscheinlich nicht die Zeit, ihre Drohungen wahr zu machen und Ihre Familie oder Freunde ausfindig zu machen, um ihnen die gefälschten Bilder zu senden.
Und selbst wenn die Hochstapler so weit gehen sollten, können Sie Ihre Angehörigen warnen, dass sie gefälschte Bilder sehen könnten. Das ist zwar nicht ideal, aber weitaus besser, als diese Art der Erpressung zu unterstützen.
Für wen geben sich Hochstapler aus?
Betrüger geben sich als jede Person aus, die von Menschen als vertrauenswürdig oder von hoher Autorität oder Wert angesehen wird, unter anderem:
Staatliche Organisationen
Vermieter oder Versorgungsunternehmen
Potenzielle Liebhaber
Bekannte Unternehmen wie Amazon
Familienmitglieder und enge Freunde
Kollegen oder der CEO Ihres Unternehmens
Unternehmen, die Jobs anbieten
Zustelldienste
Kindermädchen und Betreuerinnen
Berühmte Persönlichkeiten und Staatsoberhäupter
Beispiele für Betrügereien aus dem wahren Leben
Betrüger verwenden in der Regel eine von zwei Taktiken: Sie informieren Sie über ein Problem und bieten Ihnen dann eine Lösung an. Oder sie sprechen mit einer persönlichen Bitte um Geld Ihre Gutherzigkeit an.
Falsche Warnungen zu „verdächtigen Aktivitäten“
Abigail Bishop, Head of External Relations, Scam Prevention bei Amazon, erklärt im The Global State of Scams Report, dass Amazon im Jahr 2023 viele Berichte über Betrüger erhalten hat, die gefälschte Warnungen zu „verdächtigen Aktivitäten“ verschickt haben.
Verbraucher, die glaubten, dass ihr Konto kompromittiert wurde und auf den bösartigen Link klickten, um ihre Daten zu verifizieren, gaben ihre Zahlungs- oder Anmeldedaten an Betrüger weiter. Amazon bietet Schulungen zum Thema Cybersicherheit an, um Verbrauchern zu helfen, solche Betrugsversuche zu erkennen.
Das Klonen von Stimmen von Familienmitgliedern
Die in Schweden lebende Ann-Lis wurde auf eine andere Art und Weise getäuscht: Sie erhielt eine Textnachricht, in der stand, dass ihre Tochter dessen Telefonnummer geändert hatte, gefolgt von einer Bitte um Geld für ein neues Telefon und einen neuen Computer.
Ann-Lis war misstrauisch, bis sie einen Anruf erhielt und die Stimme ihrer Tochter wiedererkannte. Diese bat sie ihr Tausende schwedische Kronen zu schicken. Das war ausreichend, um alle Zweifel über Bord zu werfen. Glücklicherweise schaltete sich ihre Bank ein und blockierte die Transaktion, da sie den Verdacht bekam, dass etwas nicht stimmte.