Deepfake-Experte Christian Scherg über KI und Deepfakes
Deepfake-Experte Christian Scherg äußert sich in dem Ende August 2023 veröffentlichte Beitrag FDP fälscht Wüst-Foto mit Künstlicher Intelligenz des Kölner Stadt-Anzeigers (KStA), welches sich mit einem Foto von Hendrik Wüst (CDU), dem amtierenden Ministerpräsidenten von Nordrhein-Westfalen befasst. Auf diesem von der FDP angefertigten und veröffentlichten Bild umarmt Wüst innig und freudestrahlend einen Fotografen. Das Problem: Dieses Motiv hat in dieser Form niemals existiert. Stattdessen wurde das Foto mit dem Titel „Hendrik Wüsts bester Freund: Der Fotograf“ von der FDP-Landtagsfraktion mithilfe von künstlicher Intelligenz (KI) gefälscht, ohne dabei auf diese Manipulation aufmerksam zu machen.
Im Rahmen des Beitrags äußert sich unter anderem auch Deepfake-Experte Christian Scherg, erfahrener Experte für Kommunikation und Online-Reputations-Management sowie Geschäftsführer und Gründer der Düsseldorfer ORM-Agentur REVOLVERMÄNNER GmbH, zu diesem zeitgenössischem Thema. Denn künstliche Intelligenz und sogenannte Deepfakes rücken seit einiger Zeit nicht nur immer mehr in den Fokus der Öffentlichkeit, sondern werden auch auf der politischen Bühne, sowohl international als auch konkret in Deutschland, immer wichtiger – und auch kontroverser.
FDP vs. CDU: Populistisch, intransparent, irreführend
Zur Vorgeschichte: Ministerpräsident Wüst (CDU) hatte, sehr zum Unmut der Opposition im NRW-Landtag, professionelle und kostspielige Fotos von sich anfertigen lassen, welche von der Staatskanzlei von Nordrhein-Westfalen und damit letztlich vom Steuerzahler bezahlt wurden. In der Folge nutzte die FDP eines dieser Bilder, manipulierte es mithilfe KI-unterstützter Bildbearbeitung und veröffentlichte dieses im August 2023 auf dem Instagram-Account der Partei – ohne einen Hinweis auf die Bearbeitung durch künstliche Intelligenz.
Die CDU reagierte in der Folge, wenig überraschend, empört. Paul Ziemiak, der Generalsekretär der CDU von Nordrhein-Westfalen, sah sogar eine Tabugrenze überschritten. Wo künstliche Intelligenz drin sei, müsse auch künstliche Intelligenz draufstehen, so Ziemiak im Kölner Stadt-Anzeiger. Echt wirkende Bilder ohne Kennzeichnung als Montage seien nichts anderes als Desinformation.
Fake-Bilder, die eben nur einer solchen Desinformation dienten, müssten ein Tabu bleiben, so der Generalsekretär weiter: „In Zeiten, in denen sich Falschinformationen wie Lauffeuer verbreiten, braucht es Transparenz und Ehrlichkeit. Diese Fairness erwarte ich auch von der Opposition.“
Deepfake-Experte Christian Scherg: KI und Deepfakes bedrohen die Cybersicherheit der Zukunft
Im KStA-Beitrag äußert sich auch ORM- und Deepfake-Experte Christian Scherg, Geschäftsführer der 2007 von ihm gegründeten REVOLVERMÄNNER GmbH, zum aktuellen Konflikt zwischen der FDP und der CDU. Er bezeichnet das Verhalten der Freien Demokraten im Umgang mit politischen Gegnern als äußerst populistisch und eher vergleichbar mit den Wahlkämpfen in den USA. Die KI-unterstützte Bildbearbeitung sei weder gut gemacht, witzig oder gar intelligent.
Künstliche Intelligenz sei, so Deepfake-Experte Scherg weiter, momentan die größte Herausforderung in der Politik und der politischen Kommunikation. Eine der größten Bedrohungen in der nahen Zukunft seien vor allem die sogenannten Deepfakes – digitale Manipulationen, etwa von Fotos oder auch Stimmen, welche für untrainierte Augen und Ohren kaum oder gar nicht mehr als Fälschungen zu erkennen sind. Regeln und Gesetze für Wahlkämpfe und die politische Kommunikation im Allgemeinen müssten laut Christian Scherg ergo künftig völlig neu definiert werden.
Im Rahmen des Artikels äußert sich schließlich auch Marcel Hafke, der parlamentarische Geschäftsführer der FDP in NRW, zum Vorfall des KI-manipulierten Bildes von Hendrik Wüst und dem „erfundenen“ Fotografen. Man wolle auf eine moderne Kommunikation setzen, bei der auch neueste Technologie – wie eben auch künstliche Intelligenz – angewandt wird. Zudem habe man durch diese Aktion und die Kritik an der Selbstinszenierung des Ministerpräsidenten wohl wieder einen wunden Punkt getroffen. Man wolle allerdings überprüfen, das manipulierte Bild im Nachhinein als eben solches zu kennzeichnen.