Mit künstlicher Intelligenz (KI) lassen sich Bilder und Videos leicht fälschen. Diese sogenannten Deepfakes werden immer überzeugender und sind oftmals nur schwer erkennbar. Daher stellt sich online immer häufiger die Frage, ob wir dem trauen können, was wir sehen. Wie Deepfakes funktionieren, wofür sie benutzt werden und woran Sie diese Fälschungen erkennen, erfahren Sie in diesem Beitrag. Lesen Sie außerdem, wie Avira Free Security dazu beitragen kann, Ihre Cybersicherheit zu erhöhen.
Was ist ein „Deepfake“?
Der Begriff „Deepfake“ setzt sich aus den englischen Worten „Deep Learning“ und „Fake“ zusammen. Er bezieht sich auf Medieninhalte wie Fotos, Videos oder Audios, die mithilfe von maschinellem Lernen, einer Art künstlicher Intelligenz, erzeugt oder manipuliert wurden. So können täuschend echt wirkende Medieninhalte erstellt werden, die Internetnutzer in die Irre führen.
Was ist der Unterschied zu Photoshop oder Face-Swap?
Im Internet finden sich eine Vielzahl gefälschter oder manipulierter Bilder. Die meisten davon sind harmlos. So können Sie beispielsweise mithilfe von Programmen wie Photoshop Ihr Bild in eine andere Umgebung setzen oder Ihre Silhouette ein wenig straffen. Andere Apps ermöglichen amüsante Effekte wie den sogenannten Face-Swap – den Gesichtstausch –, mit dem Sie Ihr Gesicht mit dem einer anderen Person tauschen können. Ebenso können Sie Ihr Gesicht künstlich altern lassen.
Die meisten Bild- oder Video-Manipulationen dienen der Unterhaltung und sind ungefährlich. Denn es ist leicht erkennbar, dass es sich um ein gefälschtes Medium handelt, das nicht die Realität widerspiegelt. Deepfakes hingegen sind aufgrund des maschinellen Lernens teilweise so überzeugend, dass menschliche Nutzer die Fälschung nicht erkennen und daher glauben, was sie sehen. Das kann Risiken für die Cybersicherheit nach sich ziehen und den Ruf von Personen schädigen.
Wie funktionieren Deepfakes?
Beim maschinellem Lernen wird ein Algorithmus mit Informationen wie den Bildern, der Mimik oder der Stimme einer Person gefüttert. Daraus lernt er, neue Ausgaben zu produzieren, die seinen gelernten Beispielen gleichen. Dadurch kann die künstliche Intelligenz Bilder und Videos erstellen, die dem Original zum Verwechseln ähnlich sind.
So kursieren beispielsweise Videos mit Aussagen von Politikern oder anderen bekannten Persönlichkeiten auf YouTube, Google und Co., die diese Personen nie getätigt haben. Ein weitverbreitetes Deepfake-Video zeigt vermeintlich Barack Obama, wie er über seinen Nachfolger Donald Trump herzieht.
Welche Technologie ist für die Entwicklung erforderlich?
Für die Erstellung von Deepfakes benötigt es eine besondere Art des maschinellen Lernens mit sogenannten versteckten Schichten. Letztere wandeln Eingangssignale in Ausgangssignale um. Verantwortlich dafür sind verschiedene Algorithmen, die als neuronale Netze bezeichnet werden. Sie sind so konzipiert, dass sie wie das menschliche Gehirn Informationen lernen und nachahmen können. Das bedeutet, dass sie dazu fähig sind, echte Bilder in gute Fälschungen umzuwandeln.
Komplexe und täuschend echte Deepfakes umfassen in der Regel zwei Algorithmen. Während einer darauf trainiert ist, die bestmöglichen Fälschungen zu erstellen, erkennt der zweite Algorithmus manipulierte Bilder. Beide iterieren – wiederholen ihre Handlung – und lernen so stetig dazu, bis ein KI-Modell entsteht, das geschickt gefälschte Bilder produziert, indem es Gesichter austauscht. Oftmals funktioniert ein Deepfake so gut, dass menschliche Nutzer die Fälschung nicht oder nur schwer erkennen.
Wofür können Deepfakes genutzt werden?
Die meisten Deepfake-Beispiele sind pornografischer Natur. So werden häufig Gesichter prominenter Personen auf die von Pornostars gesetzt. Doch auch abseits der Celebrity-Welt werden vor allem Frauen Opfer von pornografischen Deepfakes. Sogenannte Rache- oder Fake-Pornos können den Ruf der betroffenen Person nachhaltig schädigen, wenn gefälschte, kompromittierende Bilder oder Videos veröffentlicht werden. Oftmals werden sie auch für Sextortion – der Erpressung mit expliziten Inhalten – oder Cybermobbing verwendet.
Neben pornografischen Inhalten kommen Deepfakes auch zum Einsatz, um Fake News zu verbreiten. So werden beispielsweise Reden von Politikern oder einflussreichen Persönlichkeiten manipuliert. Das birgt das Risiko, dass zahlreiche Menschen diesen so verbreiteten Fehlinformationen Glauben schenken und ihr Verhalten beeinflusst wird. Ebenso können Deepfakes Account-Hijacking oder einen Identitätsdiebstahl begünstigen. Denn Cyberkriminelle können biometrische Daten, wie Ihre Face-ID, stehlen und sich mithilfe von KI Zugang zu Ihren Benutzer- und Bankkonten verschaffen.
Tipp: Sollten Sie Opfer eines Identitätsdiebstahls geworden sein, unterstützt Sie der zurzeit nur in Deutschland verfügbare Avira Identity Assistant bei der Identitätswiederherstellung.
Können Deepfakes gefährlich sein?
Aufgrund der sich schnell entwickelnden Technologie werden Deepfakes immer überzeugender. Neben der Gefahr der Erpressung oder des Identitätsdiebstahls können Cyberkriminelle gefälschte Medien auch für weitere Betrugsmaschen verwenden. So erstellen sie beispielsweise personalisierte Videos, die vermeintlich einen Verwandten des Opfers zeigen. Dieser gibt vor, in einer Notlage zu sein und dringend Geld zu benötigen. So nutzen Hacker gutgläubige und ahnungslose Opfer mithilfe von Deepfakes leicht aus.
Die Cyberbedrohnung der gefälschten Inhalte geht jedoch über Einzelpersonen hinaus. Denn über das Internet können sich Deepfakes rasant verbreiten und somit viele Menschen erreichen. Gefälschte Videos mit erfundenen Aussagen von Personen des öffentlichen Lebens oder Politikern können die Meinung der Bevölkerung beeinflussen und sogar Gewaltakte begünstigen.
Wie kann ich gefälschte Medieninhalte erkennen?
Das maschinelle Lernen macht mit der Zeit stetig Fortschritte, sodass das Ergebnis oft täuschend echt aussieht. Das erschwert es oftmals, Deepfakes zu erkennen. Doch schauen Sie genau hin, können Sie einige Merkmale identifizieren, die auf eine Manipulation hindeuten:
- Gesicht: Wirken Gesicht und Mimik unnatürlich, kann dies auf eine Fälschung hindeuten. Normalerweise blinzeln Menschen zwischen 10- und 15-mal pro Minute. Blinzelt die Person im Film nicht oder ungewöhnlich, ist das ein Anzeichen für einen Deepfake.
- Haaransatz: Der Übergang zwischen Haaren und Gesicht ist bei gefälschten Videoinhalten oftmals sehr unscharf. Gleiches gilt für den Übergang zum Hals. Sind sie deutlich unschärfer als der Rest des Bildes, sollten Sie misstrauisch werden. Gleiches gilt, wenn sich die Hautfarbe zwischen den einzelnen Frames ändert.
- Hände: Achten Sie auf die Hände. Personen in von KI erstellten Bildern oder Videos haben häufig sechs oder sogar sieben Finger. Gleiches gilt für Zehen. Ist über die abgebildete Person nicht allgemein bekannt, dass sie zusätzliche Hand- oder Fußgliedmaßen hat, handelt es sich sehr wahrscheinlich um eine Fälschung.
- Stimme: Klingt die Stimme in einem Video oder Audio sehr monoton und die Aussprache wirkt unnatürlich? Dann liegt Ihnen vermutlich ein Deepfake vor. Nehmen Sie zusätzlich ungewöhnliche Geräusche wahr, deutet dies ebenso auf eine Manipulation hin.
- Bildqualität: Achten Sie außerdem auf die Bildqualität. Unterscheidet sich die Bildschärfe in verschiedenen Bereichen des Fotos oder Videos, weist dies auf eine Fälschung hin. Das gilt auch, wenn sich die Beleuchtung von einem Frame zum nächsten plötzlich ändert. In beiden Fällen sollten Sie misstrauisch werden.
Sind Deepfakes illegal?
An sich ist es nicht illegal, Deepfakes zu erstellen – vor allem, wenn Sie gefälschte Bilder von sich selbst kreieren. Erstellen Sie hingegen Deepfakes einer anderen Person, kann das rechtliche Konsequenzen haben. Denn damit verstoßen Sie möglicherweise gegen das Recht der betroffenen Person am eigenen Bild oder ihrem allgemeinen Persönlichkeits- und Urheberrecht. Ebenso kann ein Deepfake die Tatbestände der Beleidigung, Verleumdung oder üblen Nachrede erfüllen.
Explizite Bilder oder Videos, die mit künstlicher Intelligenz erstellt wurden, können als bildbasierte, sexualisierte Gewalt gedeutet werden. Das gilt, wenn die betroffene Person der Erstellung der Deepfakes nicht zugestimmt hat. Dadurch wird ihr Recht auf sexuelle Selbstbestimmung sowie das Recht am eigenen Bild verletzt. Werden geschlechtliche Machthierarchien dargestellt, kann bildbasierte sexualisierte Gewalt zudem das Recht auf Nichtdiskriminierung verletzen. Alle beschriebenen Tatbestände können strafrechtlich verfolgt werden.
Übrigens: Die EU-Kommission hat einen Rechtsrahmen vorgeschlagen, um den Einsatz von KI strenger zu regulieren. Demnach sollen Medieninhalte, die mithilfe von Deepfake-Technologie erstellt wurden, künftig als solche gekennzeichnet werden.
Was können Betroffene bei einer Manipulation tun?
Tauchen Deepfakes von Ihnen auf, sollten Sie den Vorfall zunächst den Plattformen melden, auf der sie verbreitet wurden. Denn soziale Medien sind dazu verpflichtet, rechtsverletzende Inhalte zu prüfen und zu entfernen. Kennen Sie die Person, die die gefälschten Inhalte von Ihnen verbreitet hat, können Sie diese verklagen und Schadensersatzansprüche geltend machen. Doch auch wenn Ihnen der Urheber nicht bekannt ist, sollten Sie Anzeige bei der Polizei erstatten.
Wie Sie mit einer Antivirus-Lösung sicherer surfen
Cyberkriminelle können Deepfakes nutzen, um sich Zugang zu Ihren Geräten oder Benutzerkonten zu verschaffen – beispielsweise, indem sie Ihre Face-ID nachahmen. Ebenso nutzen Hacker häufig weitere Techniken des Social Engineering wie Phishing oder Pharming, um auf die Konten ihrer Opfer zuzugreifen. Mit einer Antivirus-Lösung wappnen Sie sich vor Cyberbedrohungen und gestalten Ihre Online-Aktivitäten sicherer.
Avira Free Security enthält Schutzfunktionen, die Viren und andere Malware in Echtzeit erkennen – dank cloudbasierter Erkennung neuester Bedrohungen. Zudem bietet Ihnen das Tool einen Passwort-Manager. So generieren Sie unkompliziert einzigartige Kennwörter für jedes Ihrer Konten. Wurde eines beispielsweise mithilfe eines Deepfakes gehackt, können Cyberkriminelle nicht auf weitere zugreifen. Zusätzlich surfen Sie dank integriertem VPN anonymer.
Dieser Artikel ist auch verfügbar in: EnglischFranzösischItalienisch