Die technologischen Entwicklungen im Bereich der KI schreiten in rasanter Geschwindigkeit voran. Mit ihr einher gehen allerdings auch Risiken, wie zum Beispiel der Missbrauch von Deepfakes.       

 

Im Sommer führte der Branchenverband der deutschen Informations- und Telekommunikationsbranche, bitkom, eine Umfrage zum Thema Deepfakes durch. Das Ergebnis: rund 44 Prozent der Teilnehmer:innen gaben an, schon einmal auf einen Deepfake hereingefallen zu sein. Rund 70 Prozent waren der Meinung, man könne Bildern und Videos heutzutage nicht mehr vertrauen und 81  Prozent glaubten, dass sie nicht im Stande seien, Deepfakes zu erkennen.    

 

Was sind Deepfakes  

Der Begriff "Deepfake" wurde 2017 auf Reddit geprägt und setzt sich aus den Wörtern "deep" (tief), wie in der KI-Tiefenlerntechnologie, und "fake" (gefälscht) zusammen, was bedeutet, dass der Inhalt nicht echt ist. Bildmanipulationen sind nichts Neues, sie begannen im 19. Jahrhundert und fanden schon bald Einzug in die frühen Hollywood-Filme. Heute hat das Aufkommen der digitalen Technologie - und in jüngerer Zeit die Fähigkeit, maschinelles Lernen und KI zu nutzen - zu einer Verbreitung von synthetischen Medien und Deepfakes geführt.

Sicherlich haben Sie schon einmal das Bild von Papst Franziskus in einer weißen Daunenjacke gesehen oder den viralen TikTok-Account deeptomcruise, auf dem der Schauspieler Miles Fisher den "Mission: Impossible"-Star mit Hilfe von realistischer Videomanipulation nachahmt. Deepfakes werden jedoch oft mit zweifelhaften Motiven in Verbindung gebracht: so wurden in dem Reddit-Forum, in dem der Begriff entstanden ist, die Gesichter Prominenter auf pornografische Inhalte übertragen.

Leider gibt es unzählige Beispiele dafür, dass Deepfakes als Mittel eingesetzt werden, um Zielpersonen zu erniedrigen und zu belästigen. So wurden kürzlich in Spanien Bilder von minderjährigen Mädchen verändert, um ihre Kleidung zu entfernen.  

 

Deepfake Bild von Papst Franziskus
Prominenter Deepfake: KI generiertes Bild von Papst Franziskus I. in einer weißen Daunenjacke.
 

Deepfake-Störungen in Politik und Wirtschaft 

Deepfakes können auch eingesetzt werden, um Personen mit öffentlichem Profil anzugreifen, seien es Politiker:innen, Prominente oder hochrangige Wirtschaftsvertreter:innen. Henry Ajder, ein Experte für generative KI und Deepfakes, der Meta, Adobe und die britische Regierung berät, sagt, dass die Demokratisierung von KI-Tools zu großen Herausforderungen im Kampf gegen schädliche Inhalte führt.

"Bei jeder Zwischen- und Präsidentschaftswahl in den USA werde ich gefragt: Wird dies die Wahl sein, bei der wir erleben, dass ein Killer-Depfake für Chaos sorgt? Bis vor kurzem habe ich das verneint, weil sich die Kosten eines Deepfakes im Vergleich zu den traditionellen Methoden der Medienmanipulation und Desinformation nicht gelohnt haben", erklärt Ajder.

"Dieses Jahr hat sich das grundlegend geändert. Schaut man sich TikTok, Instagram und andere Social-Media-Plattformen an, sieht man, wie viele hyperrealistische Memes es gibt, z. B. Joe Biden, der mit Donald Trump Monopoly spielt, oder ein Stimmklon von Jordan Peterson, der das Finale von Game of Thrones als Katastrophe bezeichnet. Das hat mit einer echten Demokratisierung dieser Werkzeuge zu tun.

Im Mai verbreitete sich ein gefälschtes Bild des brennenden Pentagons schnell auf X (damals Twitter) und ließ den Aktienmarkt kurzzeitig einbrechen. "Man kann sehr deutlich sehen, wie dies in großem Maßstab eingesetzt werden kann, um die öffentliche Stimmung zu verändern, Panik zu verursachen und den Aktienkurs einer bestimmten Organisation positiv oder negativ zu beeinflussen", fügt Ajder hinzu.

Auch die deutsche Bundesregierung ist alarmiert. So hat Bundesinnenministerin Nancy Faeser in einem Gespräch mit dem Handelsblatt Mitte des Jahres auch auf die Gefahren von Deepfakes hingewiesen: „KI kann es Kriminellen oder Geheimdiensten ermöglichen, Bürgerinnen und Bürger leichter zu manipulieren und öffentliche Debatten mit Lügen und Propaganda zu überschwemmen (…). Deepfakes, die Stimmen oder Gesichter imitieren oder verfälschen, können hier ein sehr gefährliches Mittel sein.“ 

 

Deepfake Bild von Papst Franziskus
Man muss sich bei der Beurteiung von Bildern, Videos und Audio-Dateien zunehmend die Frage stellen, ob sie echt sind oder (deep-)Fake? 
 

Das Phänomen der Deepfakes und anderer irreführender Medien wird sich fortsetzen und vermutlich verstärken. Aus diesem Grund ist es für PR- und Kommunikationsfachleute essentiell, sich der potentiellen Gefahren für Ansehen und Vertrauenswürdigkeit bewusst zu sein.

Die Nutzung von KI-generierten Stimmenklonen zur Durchführung von Online-Betrugsfällen, insbesondere zum Zweck des Diebstahls finanzieller Mittel, stellt bereits seit einigen Jahren ein reales Risiko dar. Ein markantes Beispiel ereignete sich im Jahr 2019, als der Geschäftsführer eines ungenannten britischen Energieunternehmens irrtümlich einer Aufforderung zur Überweisung von über 200.000 US-Dollar nachkam, weil er glaubte, mit dem Vorstandsvorsitzenden der Muttergesellschaft zu sprechen. Ein ähnlicher Vorfall wurde auch von der Telekom gemeldet, bei dem Manager in Südamerika durch manipulierte WhatsApp-Sprachnachrichten, die vermeintlich von einem Vorstandsmitglied stammten, zu Transaktionen aufgefordert wurden. Obwohl diese Betrugsversuche durch ihre mindere Qualität erkennbar waren, könnte die Identifizierung solcher Fälschungen mit der fortschreitenden Verbesserung der Technologie und deren zunehmend leichterer Verfügbarkeit immer herausfordernder werden.  

 

Deepfakes und das Risiko für die Markensicherheit  

"Da immer mehr biometrische Daten erfasst werden, wird es zunehmend wahrscheinlich, dass diese Art von Betrug nicht mehr nur auf Prominente, Politiker und Geschäftsleute, sondern auch auf die Öffentlichkeit abzielt", sagt Ajder.

"Es ist wichtig zu verstehen, welche Bedrohungen für Mitarbeiter, die Marke und das Management bestehen, aber auch, wie man seine Nutzer schützen kann und sicherstellt, dass Kunden nicht durch die Nutzung von KI, die sich für das Unternehmen ausgibt, ins Visier genommen werden", sagt er.

Hilfreich dabei können Informationsangebote sein, die die Technologie hinter Deepfakes nicht nur erklären, sondern auch, mittels Beispielen, auf die Gefahren und Risiken hinweisen. So informiert das Bundesamt für Sicherheit und Informationstechnik (kurz: BSI) im Rahmen Ihres Informationsangebotes zum Thema „Künstliche Intelligenz“ auch zu „Deepfakes – Gefahren und Gegenmaßnahmen".   

 

Das Wort Deepfake in einem Buch abgedruckt

Wie PR-Profis ihre Marken schützen können: 5 Schritte 

Was können PR-Profis tun, um sich vor der Bedrohung durch Deepfakes zu schützen? Hier sind fünf schnelle Tipps, die helfen, das Problem zu bekämpfen und das Risiko zu minimieren:

 

1. Beobachten Sie die Berichterstattung 

Achten Sie auf die Online- und Social-Media-Berichterstattung über Ihre Marke, um neue Bedrohungen oder schädliche Inhalte zu erkennen. Monitoring-Tools, beispielsweise von Cision, können dabei helfen - die Tools verfügen über eine KI-gesteuerte Risiko-Score-Funktion, die potenziell schädliche Inhalte wie Hassreden und Fake News in einzelnen Artikeln, Social-Media-Posts und Rundfunkbeiträgen erkennen kann. Von dort aus kann jede sich entwickelnde Fake-Story, die zu einem Reputationsschaden führen könnte, schnell bearbeitet werden. 

 

2. Ergreifen Sie präventive Maßnahmen 

Ermutigen Sie Ihre Kunden dazu, die Verwendung von Wasserzeichen oder digitalen Signaturen auf wichtigen Medieninhalten zu prüfen. Dies kann vor allem bei öffentlichkeitswirksamen Veranstaltungen oder Kampagnen nützlich sein, bei denen die Aufmerksamkeit der Öffentlichkeit groß ist. Transparenz und Authentizität bei der Verbreitung aller Medienmitteilungen sind entscheidend. 

 

3. Seien Sie proaktiv 

Es lohnt sich, Marken zu ermutigen, proaktiv auf Deepfake-Bedenken einzugehen, indem sie ihre Medienerstellungsprozesse und Quellen offenlegen. Dies wird dazu beitragen, das Vertrauen und die Glaubwürdigkeit ihrer Kunden und Klienten zu erhalten, da sie in der Lage sind, auf geprüfte Mitteilungen zu verweisen und sie schnell auf gefälschte Inhalte aufmerksam zu machen.

 

4. Bereiten Sie sich auf Krisen vor

PR-Profis wissen ganz genau, dass eine Krise vor der Tür stehen kann - ein Plan für die Krisenkommunikation ist kein "Nice-to-have", sondern sollte "griffbereit" sein und ständig an neue Bedrohungen angepasst werden. Er sollte eine spezifische Reaktionsstrategie für Deepfake-Vorfälle enthalten und die Verantwortlichen für die Bewältigung von Deepfake-Krisen und ihre Aufgaben festlegen.

 

5. Ergreifen Sie rechtliche Schritte

Die jüngsten Fälle gegen Fox News haben gezeigt, dass die wissentliche Verbreitung von Fehlinformationen, einschließlich Deepfakes, eine rechtliche Haftung für den Verursacher nach sich ziehen kann. Sprechen Sie mit Ihrer Rechtsabteilung, um mögliche rechtliche Schritte für den Fall zu planen, dass Verlage oder Plattformen zur Verbreitung von Inhalten beitragen, die Ihrer Marke oder Ihren Beschäftigten schaden.

 

 Differenzierte Betrachtung von KI notwendig 

Auch wenn Deepfakes die Risiken von KI in der PR- und Kommunikationsbranche aufzeigen, ist es wichtig zu verstehen, dass die Technologie das Potenzial hat, die Branche positiv zu verändern.

KI ist auch in viele der Tools integriert, die PR-Profis täglich nutzen, und kann dabei helfen, zeitaufwändige Aufgaben zu übernehmen, damit Menschen mehr Zeit für strategische Aufgaben haben. Doch je mehr Inhalte und Daten wir mit Hilfe von KI erstellen, desto mehr müssen wir uns der Risiken bewusst sein, die diese Technologie mit sich bringt - und der möglichen Störung durch diejenigen, die sie für moralisch anfechtbare oder gar kriminelle Zwecke einsetzen.