Cybersicherheitsexperten sind bereits schlaflos, wenn sie darüber nachdenken, wie sie Deepfakes erkennen und vermeiden können. Dabei handelt es sich um eine neue Cyber-Bedrohung, die unterschiedslos jeden angreifen kann, nicht nur Unternehmen, sondern auch Privatpersonen. Durch den Einsatz künstlicher Intelligenz können äußerst realistische Videos oder Bilder erstellt werden, in denen falsche Protagonisten in einem äußerst peinlichen Kontext agieren. KI ist in der Lage, Fake-Videos zu generieren, in denen häufig Gesichter von Prominenten oder andere Fake-Bilder vorkommen. Diese Deepfake-Videos sind besonders besorgniserregend, da sie das Potenzial für Fehlinformationen oder Betrug haben

Das FBI warnte 2021, dass Deepfakes und andere synthetische Inhalte die Sicherheit gefährden. Einfache Tools wie Photoshop können sie erzeugen, aber mit KI und maschinellem Lernen ist mittlerweile ein enormer Qualitätssprung gelungen. Heutzutage können Fotos, Videos und Reden mithilfe von KI manipuliert werden, um synthetische Inhalte zu erstellen, die das menschliche Auge täuschen. Deepfakes imitieren zunehmend den Stil, das Gesicht, die Stimme und die Verhaltensweisen echter Menschen.

So wie KI ihre Fähigkeit, die Realität nachzuahmen, zunehmend verbessert, verbessert sich auch die Möglichkeit, völlig plausible Fake News, Betrug, Manipulation und Betrügereien zu generieren, wodurch es schwieriger wird, Fakten von Fiktionen zu trennen.

Deepfakes können mit Open-Source-Software und KI-Tools erstellt werden, sodass sie selbst von Amateuren mit begrenztem technischem Fachwissen einfacher zu generieren und zu verbreiten sind.

Wie werden Deepfakes verwendet?

 Manipulation und Desinformation. Deepfakes werden oft erstellt, um absichtlich Fake News zu verbreiten, die öffentliche Meinung zu manipulieren oder das Vertrauen in Informationsquellen zu untergraben. Sie stellen eine ernsthafte Bedrohung für den korrekten Journalismus und die Wahrheit dar.

Betrug mit Identitätsdiebstahl. Kriminelle nutzen Deepfakes, um sich am Telefon oder in Videoanrufen als Ziel auszugeben und sie dazu zu bringen, Geld zu senden oder sensible Daten preiszugeben. Diese Videobetrügereien kommen immer häufiger vor.

Racheporno. Deepfakes können verwendet werden, um das Gesicht einer Person ohne deren Zustimmung realistisch in pornografische Bilder und Videos einzufügen.

Politische Propaganda. Politiker und Lobbyisten nutzen Deepfakes zunehmend, um irreführende Anzeigen, Videos oder Audioclips zu erstellen, um politische Gegner zu diskreditieren und die öffentliche Meinung bei Wahlen zu beeinflussen.

Ausbeutung von Prominenten. Deepfakes ermöglichen die automatische Erstellung falscher Nacktbilder von Prominenten, ohne deren Zustimmung und unter Verletzung der Privatsphäre.

 Ransomware. Einige Ransomware-Banden haben begonnen, Deepfakes zu verwenden, um Opfer dazu zu verleiten, Malware herunterzuladen oder Anmeldedaten preiszugeben, indem sie sich in einem Video-Chat als Geschäftsführer oder Kollege eines Unternehmens ausgeben.

Demütigung und Missbrauch. Deepfakes erleichtern die nicht einvernehmliche Weitergabe privater Bilder und erniedrigender/manipulativer Inhalte, die sich an Frauen, Minderheiten und andere Gruppen richten. Dieser Missbrauch trägt zu Online-Belästigung und realen Gefahren bei.

Betrug und Identitätsdiebstahl. Durch die Generierung gefälschter, realistischer Ausweise, Profile, Reden oder anderer Medien im Namen einer anderen Person können Deepfakes dazu verwendet werden, Identitäten und Gelder zu stehlen oder Versicherungsbetrug, Betrügereien und andere Finanzverbrechen zu begehen.

Verletzung der Privatsphäre. Jede Darstellung einer Person, die sich an privaten Handlungen wie Intimität, medizinischen Eingriffen, religiösen Praktiken oder anderen Dingen beteiligt, könnte durch die Verbreitung gezielter Deepfakes missbraucht werden.

 Mobbing und Belästigung. Cybermobber, Trolle und Online-Belästiger nutzen Deepfakes zunehmend, um den Missbrauch ihrer Opfer auf andere Weise zu verstärken. Niemand ist vor diesen böswilligen Akteuren und ihren manipulierten Medien sicher.

Copyright-Verletzung. Deepfakes werden manchmal verwendet, um automatisch urheberrechtsverletzende Inhalte wie gefälschte Filmtrailer, pornografische Parodien oder synchronisierte/untertitelte Clips von Fernsehsendungen, Filmen und Videospielen ohne Erlaubnis der Urheber oder Urheberrechtsinhaber zu generieren und zu verbreiten.

Dies sind laut Forschern, Experten und Vorfallberichten einige der bedeutendsten und besorgniserregendsten Verwendungen von Deepfakes. Insgesamt stellen Deepfakes erhebliche Risiken für Wahrheit, Vertrauen, Privatsphäre, Einwilligung, Sicherheit und geistiges Eigentum dar, die eine weltweit koordinierte Reaktion erfordern.

Auch Hacker nutzen Deepfakes

Auch Hacker nutzen Deepfakes häufig als zusätzliches Werkzeug für Ransomware-Angriffe. Traditionell werden Deepfakes beim Angeln eingesetzt, um das Opfer dazu zu verleiten, auf die Falschmeldung zu klicken und so unfreiwillig Schadsoftware in sein Computersystem herunterzuladen. Oder es wird dazu verwendet, das Opfer mit der Drohung zu erpressen, vermeintlich rechtswidriges, aber falsches Verhalten öffentlich bekannt zu geben, was im Falle einer Nichtzahlung zwangsläufig zu Reputationsschäden führt.

Digitale forensische Techniken können möglicherweise dabei helfen, Deepfakes zu erkennen, indem sie verschiedene Hinweise in Bildern, Videos und Mediendateien analysieren.

Putin Deepfake Quelle Wikipedia

Einige Tipps zum Erkennen von Deepfakes

Das Erscheinungsbild von Deepfakes erscheint nahezu perfekt, aber wenn wir auf viele Details achten, können wir erkennen, dass es sich um eine Fälschung handelt.

Schauen Sie sich die zusätzlichen Details an. Deepfakes weisen oft kleine Fehler im Detail auf oder es fehlen Mikroausdrücke, die normalerweise vorhanden wären. Suchen Sie nach Unstimmigkeiten in der Beleuchtung, Schatten oder Reflexionen, die fehl am Platz erscheinen.

Analysieren Sie Augenkontakt und Blinzeln. Falsche Probanden haben oft zu viel oder zu wenig Augenkontakt und blinzeln unregelmäßig oder unnatürlich. Echte Menschen blinzeln häufig zufällig.

Suchen Sie nach Schatten oder Unschärfe. Deepfakes können Schatten oder verschwommene Kanten auf dem Motiv aufweisen, die es wie ein schlecht komponiertes Bild aussehen lassen.

Suchen Sie nach Übergangsproblemen. Wenn sich ein Deepfake-Subjekt bewegt oder vorbeigeht, können die Ränder um die Person verschwinden oder andere Artefakte erscheinen, die darauf hinweisen, dass es eingefügt wurde.

Suchen Sie nach Spitzen in visuellen Informationen. Bei Deepfakes kann es zu einer plötzlichen Detailverstärkung oder Pixelbildung in bestimmten Bereichen kommen, die sich deutlich vom Rest des Bildes abheben.

Vergleichen Sie es mit anderem Filmmaterial. Wenn es andere Videos oder Bilder derselben Person gibt, notieren Sie alle Unterschiede in Aussehen, Ton oder Stil, die nicht übereinstimmen. Deepfakes neigen dazu, die Eigenschaften des Subjekts übertrieben nachzuahmen.

Achten Sie auf Rahmenfehler. Die Aufnahme oder Komposition kann plötzlich den Winkel ändern oder Teile der Person auf unnatürliche Weise vom Rand des Bildes abschneiden.

Steuern Sie die Qualität und Synchronisierung des Audios. Wenn eine Audiospur vorhanden ist, achten Sie darauf, ob es Unterschiede in Ton, Tempo oder Lautstärke gibt, die nicht zum normalen Stil des Motivs passen. Darüber hinaus sollten Audio und Video perfekt synchronisiert sein, was bei Deepfakes oft nicht gelingt.

Suchen Sie nach Maschinenattributen. Einige Forscher haben herausgefunden, dass Deepfakes an den Rändern Pixel, Unschärfe oder Farbartefakte aufweisen können, die Pixeln auf einem digitalen Bildschirm ähneln. Dies geschieht jedoch nicht immer und sollte daher nicht der einzige Hinweis sein.

Seien Sie skeptisch gegenüber schockierenden Behauptungen. Deepfakes werden oft erstellt, um zu schockieren, zu empören oder Traffic/Klicks zu generieren. Seien Sie äußerst skeptisch gegenüber Aussagen, die eher darauf abzielen, eine starke emotionale Reaktion hervorzurufen als zu informieren.

Dies sind einige der von Forschern empfohlenen Techniken zur Erkennung von Deepfakes und synthetischen Medien. Aber es gibt immer noch keine narrensichere Methode, daher sind es genauso wichtig, sich an die Fakten zu halten und eine gesunde Skepsis anzunehmen, wie sich zu identifizieren

So verhindern Sie Deepfakes

Um die Wahrscheinlichkeit zu verringern, Gegenstand eines Deepfake-Angriffs zu werden, wird empfohlen, die Veröffentlichung von Fotos und Videos in sozialen Medien einzuschränken, um zu verhindern, dass sie zum Gegenstand von Manipulationen werden. Nachfolgend finden Sie einige Tipps, wie Sie sich und Ihre Familie vor Deepfakes schützen können.

Seien Sie zunächst vorsichtiger beim Teilen persönlicher Fotos/Videos in sozialen Medien. Je mehr aufschlussreiche oder kompromittierende Inhalte im Internet vorhanden sind, desto anfälliger sind Sie für Deepfakes. Begrenzen Sie nach Möglichkeit das übermäßige Teilen von Bildern und Videos. Vermeiden Sie außerdem das Markieren von Orten oder Details, die Ihren Wohnort identifizieren könnten. Deepfakes werden manchmal für kriminelle Zwecke wie Stalking, Swatting oder Belästigung eingesetzt.

Seien Sie bei Freundschaftsanfragen in sozialen Medien vorsichtig bei unerwünschten Freundschaftsanfragen oder Nachrichten mit Linkanhängen. Klicken Sie niemals auf Links oder laden Sie Anhänge von unbekannten oder verdächtigen Absendern herunter. Sie können Malware enthalten, die dazu dient, Ihre Konten oder Kameras zu kompromittieren. Verwenden Sie nur private Profile. Stellen Sie sicher, dass Ihre geposteten Inhalte nur für genehmigte Freunde und Familie sichtbar sind.

Halten Sie Ausschau nach Anzeichen dafür, dass Ihre Bilder von unbekannten Konten oder in bestimmten Kontexten gepostet und/oder geteilt werden. Sollten Sie Belästigungen, Drohungen oder Erpressungsversuche erhalten, die sich auf manipulierte Medien beziehen, wenden Sie sich umgehend an die Behörden.  

Dies sind einige Empfehlungen, um sich selbst, Familien und die Gesellschaft vor der Bedrohung durch Deepfakes zu schützen. Der Schlüssel besteht darin, den Zugriff auf Informationen, die gegen Sie verwendet werden könnten, einzuschränken, sich der Risiken bewusst zu sein, auf Anzeichen von Missbrauch zu achten und Maßnahmen zu ergreifen, um auf individueller Ebene Abwehrmaßnahmen aufzubauen. Mit Wachsamkeit und Prävention können Sie Ihre Anfälligkeit für Deepfakes deutlich reduzieren.

Kostenlose Open-Source-Tools zur Deepfake-Erkennung

Für die Deepfake-Erkennung stehen einige kostenlose Open-Source-Tools zur Verfügung, darunter:

1. FaceForensics: Es handelt sich um ein Deepfake-Erkennungs-Toolkit, das mehrere Erkennungsmethoden umfasst, darunter die Analyse von Kopfbewegungen, die Erkennung von Gesichtsvertauschungen und die Erkennung von Inkonsistenzen bei Beleuchtung und Schatten.

2. Tiefe Videoporträts: Es handelt sich um ein Open-Source-Deepfake-Erkennungstool, das maschinelles Lernen nutzt, um die Bewegung und das Aussehen von Personen in Videos zu analysieren.

3. Fawkes: Es handelt sich um ein Open-Source-Tool, das Bilder vor der Verwendung zur Erstellung von Deepfakes schützt, indem es ihnen unmerkliches Rauschen hinzufügt.

4. OpenFaceSwap: ist ein Open-Source-Tool zum Erstellen und Erkennen von Gesichtsvertauschungen in Bildern und Videos.

Diese Tools können von Forschern, Entwicklern und anderen Personen verwendet werden, die an der Erkennung von Deepfakes interessiert sind. Es ist wichtig zu beachten, dass diese Tools zwar nützlich sein können, aber nicht narrensicher sind und möglicherweise nicht alle Fälle manipulierter Medien erfassen. Es ist auch wichtig, diese Tools verantwortungsvoll und ethisch zu nutzen und die möglichen Auswirkungen auf die Privatsphäre und die freie Meinungsäußerung zu berücksichtigen.

Wie kann ein Deepfake rechtlich sanktioniert werden?

Zur Zeit der Die Europäische Kommission entwickelt einen Vorschlag für eine europäische Verordnung über Künstliche Intelligenz, in der in der Kunst. 52 Absatz 3 definiert Deepfake als „System der künstlichen Intelligenz, das Bilder oder Audio- oder Videoinhalte erzeugt oder manipuliert, die Personen, Gegenständen, Orten oder anderen existierenden Entitäten oder Ereignissen erheblich ähneln und die einer Person fälschlicherweise authentisch oder wahrhaftig erscheinen könnten“

In Italien hat die italienische Behörde für den Schutz personenbezogener Daten auf ihrer institutionellen Website a veröffentlicht Handbuch zum Thema, herunterladbar im PDF-Format.

Derzeit gibt es einige Gesetze und Vorschriften, die möglicherweise für Deepfakes gelten, umfassende Gesetze, die sich speziell mit Deepfakes befassen, wurden jedoch noch nicht verabschiedet. Einige der relevanten Gesetze sind:

Verleumdungsgesetze: Das Erstellen und Verbreiten von Deepfakes, die absichtlich falsche Informationen über jemanden auf eine Weise verbreiten, die seinen Ruf schädigt, kann möglicherweise eine Verleumdung darstellen. Die Verleumdungsgesetze variieren von Land zu Land, zielen jedoch darauf ab, Menschen vor böswilligen Unwahrheiten zu schützen, die ihrem Ruf schaden.

Datenschutzgesetze: Deepfakes, die die nicht einvernehmliche Nutzung des Bildes, des Abbilds oder der Privatsphäre einer Person beinhalten, können gegen Datenschutzgesetze verstoßen, beispielsweise gegen die Verletzung der Privatsphäre durch Meineid.

Urheberrechtsgesetze: Austausch von Gesichtern in urheberrechtlich geschützten Inhalten wie Filmen, Fernsehsendungen, Büchern usw. ohne Genehmigung kann das Urheberrecht verletzen. Bei einigen Deepfakes handelt es sich im Wesentlichen um Neuauflagen oder inoffizielle Neuinterpretationen geistigen Eigentums.

Gesetze zur Cyberkriminalität: In seltenen Fällen wird die böswillige Verbreitung von Deepfakes nach allgemeinen Gesetzen strafrechtlich verfolgt, beispielsweise gegen Cyberbelästigung, Cybermobbing oder die Verbreitung obszöner Inhalte. Diese Gesetze wurden jedoch nicht speziell für Deepfakes entwickelt.

Die rechtlichen Fragen im Zusammenhang mit Deepfakes entwickeln sich noch weiter, daher können sich die Gesetze in Zukunft ändern. Derzeit besteht jedoch die Möglichkeit, die schädlichsten Deepfakes unter Berufung auf bestehende Gesetze zu verfolgen.

Fehler: Inhalt ist geschützt !!
Schaltfläche "Jetzt anrufen"