Achtung vor Deepfakes: Der Spion im Online-Meeting

deepfake

Cyberkriminelle könnten Künstliche Intelligenz (KI) nutzen, um in Online-Konferenzen das Aussehen und die Stimme vertrauter Personen vorzutäuschen. Die Fälschungen sind bereits sehr gut und schwer zu erkennen.

Dennoch gibt es auch im echten Leben Spione, die vertrauliche Gespräche belauschen, ohne dass ein klassischer Hackerangriff oder eine fehlende Verschlüsselung dahintersteckt. Wie ist das möglich, wenn man doch nur vertraute Gesichter sieht und bekannte Stimmen hört?

Die Antwort liegt in der Nutzung von Künstlicher Intelligenz durch Internetkriminelle. Dank KI ist es inzwischen möglich, nicht nur Einzelbilder, sondern auch Videos und Tonaufnahmen zu fälschen. Dies betrifft auch Live-Videos und Gespräche, da die verwendete KI das Videobild und den Ton des Spions in das Aussehen und die Stimme einer anderen Person verwandeln kann, die an dem vertraulichen Online-Meeting teilnehmen dürfte.

Nicht nur E-Mails können unter falschem Namen versendet werden, auch Telefonate und Online-Meetings können mit gefälschter Identität geführt werden. Dadurch erhält Online-Betrug eine völlig neue Dimension.

Deepfakes ermöglichen Identitätsdiebstahl in Echtzeit

Der neuartige Identitätsdiebstahl, bekannt als Deepfake, bezieht sich auf täuschend echte manipulierte Bild-, Audio- oder auch Videoaufnahmen, die mithilfe von Künstlicher Intelligenz erzeugt werden.

Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) war es lange Zeit sehr aufwändig, qualitativ hochwertige Manipulationen an dynamischen Medien wie Videos oder Audiomitschnitten durchzuführen. Dank KI und tiefen neuronalen Netzen ist dies jedoch heute viel einfacher. Für die Kriminellen ist der Aufwand für Deepfakes entsprechend gering.

Die wachsende Echtzeitfähigkeit von Deepfakes bedeutet, dass man in Online-Meetings nicht mehr sicher sein kann, ob man wirklich mit der realen Person spricht oder mit einem Angreifer oder sogar einem Avatar, einer künstlichen Person.

So erkennt man Deepfakes am besten

Obwohl KI inzwischen gefälschte Videos und Stimmen in hoher Qualität erzeugen kann, gibt es gewisse Schwächen in den Deepfakes, die genutzt werden können, um Anzeichen für Fälschungen zu finden. Das Bundesamt für Verfassungsschutz (BfV) empfiehlt:

  • Sorgen Sie für gute Bildqualität, um Ungereimtheiten im Bild zu erkennen.
  • Achten Sie auf die Mimik der Person, um Verzerrungen zu erkennen.
  • Prüfen Sie die Quelle und verifizieren Sie Videoschalten bei Unsicherheit.

Auch das BSI weist auf Anzeichen für eine Gesichtsmanipulation hin, wie sichtbare Artefakte an der Naht rund um das Gesicht, verwaschene Konturen bei Zähnen und Augen, eine begrenzte Mimik und eine unstimmige Beleuchtung.

Da kriminelle KI-Verfahren und Cyberkriminelle schnell dazulernen, werden Deepfakes immer besser. Daher ist es umso wichtiger, vorsichtig zu sein und nicht allem zu glauben, was man zu sehen scheint. Also, Augen auf bei der nächsten Online-Konferenz!