Leitfaden, um zu vermeiden, von Deepfakes getäuscht zu werden

Können Sie zwischen einem realen Bild und einem von künstlicher Intelligenz (KI) erstellten Bild unterscheiden? Fortschritte in der KI-Technologie haben dazu geführt, dass das, was wir mit unseren Augen sehen und mit unseren Ohren hören, nicht immer zuverlässig ist. KI erstellt Audioaufnahmen von einem Familienmitglied, das uns um eine Geldüberweisung oder unsere Bankdaten bittet.
Zusätzlich zu allen Vorteilen, die uns die generative künstliche Intelligenz gebracht hat, hat sie auch die Möglichkeiten von Cyberkriminellen erweitert, ihre Betrügereien mit immer ausgefeilteren Werkzeugen durchzuführen, um uns zu täuschen, wie zum Beispiel Deepfakes – von KI erstellte Bilder, die echte Menschen nachahmen.
„Ein Deepfake ist die digitale Veränderung eines Bildes, Videos oder Audios mithilfe künstlicher Intelligenz mit der Absicht, sich bei einer Aktion oder einem Szenario als eine andere Person auszugeben. Social Engineering wird eingesetzt, um eine Person oder eine Gruppe von Personen zu täuschen und ihnen vorzutäuschen, sie stünden vor einer anderen Person – sei es jemand, den sie kennen oder eine Berühmtheit –, um Zugriff auf vertrauliche Daten, Passwörter, Bankdaten oder Konten bei verschiedenen Diensten zu erhalten oder sie zu Investitionen in etwas wie eine Kryptowährung zu bewegen“, sagte Leandro Cuozzo, Sicherheitsanalyst bei Kaspersky Lateinamerika.
Der Experte unterteilte die Betrugsmaschen grob in zwei Arten. Bei der ersten handelt es sich um die Nachahmung von Prominenten oder Persönlichkeiten des öffentlichen Lebens, um zu falschen Investitionen oder dem Diebstahl von Anmeldedaten zu verleiten. Ein Beispiel hierfür war der Fall einer Argentinierin, die von einem falschen George Clooney dazu verleitet wurde, dem Fanclub des Schauspielers finanziell zuzuwenden, und dabei rund 15.000 Dollar verlor. Bei der zweiten Art handelt es sich um Identitätsdiebstahl, um virtuelle Geldbörsenkonten zu eröffnen und Kredite zu beantragen.

Foto: iStock.
Wir konzentrieren uns in diesem Artikel auf den ersten Typ und geben Tipps, wie Nutzer ihn besser erkennen und vermeiden können, auf diese Betrügereien hereinzufallen. Eine Möglichkeit, sich vor dem zweiten Typ, dem Identitätsdiebstahl, zu schützen, besteht darin , die Menge an persönlichen Informationen, Fotos und Videos, die wir online und in sozialen Medien teilen, einzuschränken. Dadurch erhalten Cyberkriminelle, die versuchen, uns durch einen Deepfake zu imitieren, weniger Informationen.
Früher war es einfacher zu erkennen, ob ein Bild, Video oder Audio technisch manipuliert wurde. Dank neuerer KI-Entwicklungen konnten Fehler reduziert und die Manipulation audiovisueller Inhalte perfektioniert werden. Hier finden Sie einige Richtlinien, die Ihnen helfen, Fehler bei der KI-basierten Bild-, Video- und Audiogenerierung zu erkennen.
Fotos- Schauen Sie sich Ihre Hände an. Stimmt die Anzahl der Finger? Haben Sie an jeder Hand mehr als einen Daumen?
- Schauen Sie sich das Gesicht an. Ein unscharfes Bild an den Rändern kann darauf hinweisen, dass das Bild manipuliert wurde.
- Achten Sie auf Ihre Wangen und Stirn. Wirkt Ihre Haut zu glatt oder faltig? Altert Ihre Haut ähnlich wie Ihre Haare und Augen? Passen Ihre Gesichtszüge zum Rest Ihres Gesichts?
- Achten Sie auf den Teint. Ein Farbunterschied zwischen Gesicht und restlichem Körper kann auf ein Deep Fake hinweisen.
- Schauen Sie sich die Augen und Augenbrauen genau an. Erscheinen Schatten an den erwarteten Stellen? Sind sie sehr hell?
- Wenn die Figur eine Brille trägt: Gibt es Reflexionen oder zu viele?
- Untersuchen Sie Gesichtsbehaarung oder deren Fehlen sorgfältig. Sieht sie echt aus? Deepfakes können Schnurrbärte, Koteletten und Bärte hinzufügen oder entfernen.
- Achten Sie auf Muttermale oder andere Flecken. Sehen sie echt aus?
- Analysieren Sie den Hintergrund der Bilder. Stimmen die Formen mit der Beleuchtung überein? Wirken Strukturen oder Objekte verzerrt oder verdächtig schief?

Foto: iStock
- Beobachten Sie die Lippenbewegungen. Wirken sie natürlich? Passen sie zu den Worten, die sie sagen?
- Kehren Sie zu den Muttermalen und Gesichtsmarkierungen zurück und achten Sie auf Konsistenz : Bleiben sie während des gesamten Videos an derselben Stelle?
- Reflexionen sind verräterische Zeichen. Wenn die Person im Video eine Brille trägt, ändert sich der Winkel der Reflexion, wenn sich die Person bewegt? Deepfakes stellen die Beleuchtung von Objekten nicht natürlich dar.
- Achten Sie auf das Blinzeln. Blinzelt die Person ausreichend oder zu viel?
- Schauen Sie sich die Zähne an. Wenn sie verschwommen aussehen oder die Form im gesamten Video gleich bleibt, könnte dies ein Zeichen für einen Deepfake sein.
- Untersuchen Sie den Gesichtsausdruck der Person. Wirkt er natürlich oder künstlich? Ist er zu neutral? Passt er zu dem, was die Person sagt?
- Falls weitere Objekte im Video zu sehen sind, befolgen diese die physikalischen Gesetze? Auch Wassergläser, bei denen sich die Flüssigkeit verdächtig verhält, sind mögliche Anzeichen für einen Deepfake.
- Monotone Dialoge. KIs haben immer noch Schwierigkeiten, natürlich wie ein Mensch zu sprechen. Dies kann ihre künstliche Natur offenbaren, indem sie beispielsweise ihren Ton ändern, um eine Frage anzudeuten, wenn keine vorliegt, oder indem sie eine emotionale Geschichte erzählen, ohne scheinbar eine emotionale Reaktion hervorzurufen.
- Schlecht artikulierte Stimme, insbesondere bei unbekannten Begriffen. Auditive Deepfakes werden durch die Analyse der Sprache einer Person erstellt. Die KI hat möglicherweise Probleme, Wörter zu artikulieren, die sie nicht in ihrer Datenbank hat, was zu Ausspracheschwierigkeiten oder verdächtigen Pausen führen kann.
- Ungewöhnliche Geräusche. Achten Sie auf ungewöhnliche Geräusche wie Störungen oder statische Aufladung, insbesondere bei Nachrichten von Personen, die normalerweise Zugang zu professionellen Kommunikationsmitteln haben, wie Schauspielern oder Politikern.
„Um Deepfakes zu erkennen, empfehle ich vor allem, den Kontext genauer zu analysieren“, sagte Leandro Cuozzo von Kaspersky. „Beispielsweise ein Video, in dem Elon Musk in perfektem Spanisch erklärt, dass er mir das Fünffache meiner Investition zurückgibt, wenn ich in etwas investiere. Da ist Vorsicht geboten. Warum? Weil Musk kein perfektes Spanisch spricht, gibt es keine Investitionen, die das Fünffache meiner Investition zurückgeben, und, nun ja, es ist ein sehr seltenes Angebot.“ Der Experte empfiehlt, vier Faktoren zu beachten.
- Überprüfen Sie immer die Quelle und den Absender. Ist es zuverlässig? Ist es offiziell?
- Analysieren Sie den Kontext: Was verlangt die Nachricht? Wie wird es formuliert? Welche Emotionen sollen damit geweckt werden? Cyberkriminelle wollen oft ein Gefühl der Dringlichkeit erzeugen, um ihre Opfer zu Fehlern zu verleiten.
- Seien Sie vorsichtig, wenn Sie nach vertraulichen Daten wie Passwörtern oder Bankdaten gefragt werden .
- Seien Sie misstrauisch, wenn Ihnen etwas angeboten wird, das zu gut ist, um wahr zu sein. Wenn es eine so gute Investition gibt, dass sie Ihre Investition verdoppeln könnte, warum sollten sie dann davon erzählen, anstatt alle Vorteile für sich selbst zu nutzen?
eltiempo