Die Welt wird durch Deep Fakes untergehen – oder auch nicht (Artikelbesprechung, Recherche, Analyse, Kommentar)

Analyse IT  und KI, Wirtschaft, Gesellschaft, Economy, Society, Besprechung, Meinung, Fakes und Fakten

28.01.2026

Vorgestern hatten wir beschlossen, noch intensiver über KI zu berichten als im Jahr 2025 und dabei auch unseren eigenen Modus vivendi in dieser Sache in aktualisierter Form erklärt, woraus sich wiederum ein Nachdenken über kommerzielle Nutzung ergab. Heute haben wir bereits eine flammende Anklage gegen die KI-Nutzung gelesen, die wir für Sie aufbereiten wollen, denn wir bleiben trotz unserer eigenen Verwendung dieser Technik wachsam.

Ob wir auch so dramatisieren, wie andere es tun, ist eine andere Frage. Wenn man zum Beispiel so schreibt, ist man nach unserer Ansicht Teil des Problems, nicht der Lösung: ChatGPT, Sora 2, Gemini und Co.: Massenhafter KI-Betrug in ganz Deutschland Was haben wir daraufhin getan? Genau, wir haben eine KI mit der Analyse beauftragt.

Wir betonen aber an dieser Stelle sogleich, dass der Beitrag als Meinung gekennzeichnet ist, diese Kennzeichnung haben wir der KI nicht mitgeteilt, weil wir nur den Textteil „auskopiert“ haben, der das Thema betrifft, damit er von anderen Themen getrennt ist, nicht die in Rot bzw. Telekom-Magenta gekennzeichnete Markierung mit „Meinung“. Trotzdem oder gerade deshalb ist es wichtig, zu wissen, wie in solchen Beiträgen vorgegangen wird, denn „wir“ sollen ja medienkompetent sein, nicht wahr?

Zur Analyse

Es geht um die Zusammenfassung und Analyse dieses journalistisch zugespitzten Artikelauszugs über die Bedrohung durch KI-generierte Fälschungen – mit Berücksichtigung des eigenen Kommentars, der Transparenz und Kennzeichnung betont. Im Folgenden fasse und deute den Text ausführlich, beziehe seinen emotionalen und argumentativen Duktus ein, analysiere seine inneren Widersprüche, seine rhetorische Strategie und die Frage nach der berechtigten Dramatik.


Zusammenfassung

Der Artikel beginnt mit alltäglich wirkenden Szenen aus der Welt sozialer Medien: erotische Polizei-Fantasien, spektakuläre Naturphänomene, angebliche Gewaltszenen. Jede Szene soll die Aufmerksamkeit der Lesenden sofort binden – durch Reiz, Empörung oder Staunen. Dann folgt die Aufklärung: Keine dieser Darstellungen ist echt. Sie sind von Künstlicher Intelligenz erzeugte Täuschungen – „digitale Phantome“. Der Text betont, wie leicht sich solche Bilder oder Videos heute mit Werkzeugen wie ChatGPT, Sora 2, Grok oder Gemini erzeugen lassen, und schließt daraus, dass die Grenze zwischen Realität und Simulation bereits massiv aufgeweicht sei.

Der Autor setzt daraufhin eine dramatische Metapher: Ein „Tsunami aus Fälschungen“ bedrohe das Fundament der Gesellschaft – nämlich den „Konsens darüber, was real ist und was nicht“. Die Ursache dieses Dilemmas sieht er in zwei „Säulen“: einer psychologischen und einer technologischen.

  • Die psychologische Säule: Unser Gehirn vertraut dem, was es sieht. Der evolutionäre Instinkt, Gesehenes für wahr zu halten, war über Jahrtausende überlebenswichtig – heute aber werde genau dieser Mechanismus zur Schwachstelle. Wir seien evolutionär nicht dafür gerüstet, jedes Bild anzuzweifeln.
  • Die technologische Säule: Das Internet habe einen „Kipppunkt“ überschritten – der Anteil KI-erzeugter Inhalte sei größer als der menschlich geschaffenen. Damit verwandle sich das Netz in ein „Spiegellabyrinth“, in dem die Mehrheit der Spiegel lüge.

Ein Kollege, Patrick Schiller, wird zitiert: In sozialen Medien ginge es bei KI-Videos selten um Echtheit, sondern um moralische Bewertungen. Emotionen verdrängten Reflexion. So würden Fälschungen zu realen gesellschaftlichen Konflikten führen.

Die Argumentation kulminiert in der Behauptung, dass KI-generierte Bilder mehr seien als technische Spielereien. Sie seien Werkzeuge zur Manipulation, zur emotionalen und politischen Steuerung – und bedrohten die Grundlagen von Vertrauen in Medien, Wissenschaft, Justiz. Fotografische und filmische Aufzeichnungen, einst Beweis und Dokumentation, verlören ihre Glaubwürdigkeit: „Wenn jedes Bild manipuliert sein kann, stirbt der Beweis.“

Auf dieser Basis beschreibt der Autor einen moralischen und politischen Handlungsbedarf. Er verweist lobend auf Dänemark, das gesetzlich das „Recht an Gesicht und Stimme“ festschreibe – den Schutz biometrischer Identität als Menschenrecht. In Deutschland dagegen herrsche Passivität: Politik und Öffentlichkeit seien „schlafwandlerisch“ und unterschätzten die Dramatik. Daher müsse dringend eine gesamtgesellschaftliche Debatte einsetzen, bevor Demokratie und sozialer Zusammenhalt durch Misstrauen und Desinformation zerfielen.

Das Fazit ist apokalyptisch: Wenn jedes Bild sowohl echt als auch gefälscht sein könne, löse sich der gemeinsame Realitätsbezug auf – „Dann triumphieren das Misstrauen, die Paranoia und das Recht des Lautesten.“ Nur Bildung, Gesetzgebung und kollektive Achtsamkeit könnten verhindern, dass die Gesellschaft im Chaos der Täuschungen versinkt.


Analyse des Textes

Rhetorischer Duktus und emotionales Design

Der Artikel arbeitet mit literarischer Dramatisierung, moralischer Inbrunst und bewusst aufrüttelnder Sprache. Der Einstieg ist erzählerisch („sie ist jung, aufreizend…“) und stilisiert das KI-Phänomen zunächst als triviales Internetphänomen. Der Aufbau folgt einem klassischen Dramatisierungsmuster:

  1. Anschauung und Reiz,
  2. Entlarvung und Schock,
  3. Warnung vor dem Untergang.

Diese Dramaturgie dient nicht nur der Information, sondern der emotionalen Mobilisierung. Der Autor zieht die Leserschaft in eine moralische Erzählung über Wahrheit, Vertrauen und Zivilisation. Begriffe wie „Tsunami“, „Spiegellabyrinth“, „Generalangriff“ und „geistige Immunabwehr“ sind Metaphern, die physische und biologische Bedrohungen evozieren – eine Strategie, die Angst in Wachsamkeit verwandeln will.

Die Sprache verwendet oft kollektive Pronomen („wir erleben“, „wir können uns nicht leisten“), wodurch ein Gemeinschaftsgefühl im Angesicht der Gefahr entsteht. Dieses Gemeinschaftsgefühl jedoch wird in den Dienst einer klaren Dichotomie gestellt: auf der einen Seite die erkennbar moralisch „richtigen“ Wächter der Realität; auf der anderen Seite naïve, schlafwandlerische oder gleichgültige Mitläufer einer technisierten Welt.

Argumentationsstruktur und Realitätsgehalt

Der Text kombiniert reale Phänomene – wie die Zunahme von Deepfakes, die emotionale Viralität visueller Inhalte, die technische Fähigkeit von Generatormodellen – mit apokalyptischen Übertreibungen. So ist die Behauptung, dass inzwischen mehr KI-generierte als menschliche Inhalte im Internet existieren, empirisch (Stand 2026) nicht belegt. Plattformübergreifende Analysen von Cloudfare, Common Crawl oder Microsoft Research zeigen zwar eine schnelle Zunahme synthetischer Inhalte, aber keine vollständige Dominanz. Diese Darstellung erfüllt im journalistischen Sinne eine Alarmfunktion, keine wissenschaftliche Beweisführung.

Darin liegt die Spannung: Der Text will aufrütteln, nicht belegen. Die Belege werden verkürzt (Zitate eines Kollegen genügen als Autoritätsrahmen). Wissenschaftliche Seriosität ist nicht der Maßstab – stattdessen moralischer Ernst. Der Autor setzt Vertrauen auf narrative Überzeugungskraft: Die Gefahr müsse gefühlt werden, bevor sie begriffen wird. Das hat publizistisch Tradition, etwa in Warnungen vor der Atomkraft oder Klimakrise – und ist journalistisch legitim, solange es sich als Meinung kenntlich macht.

Vergleich mit dem eigenen Kommentar

Ihr Kommentar in Abschnitt 1 ist in seiner Grundhaltung rational-abwägend und sieht die Lösung in Transparenz und Kennzeichnung. Diese Haltung entspricht dem idealen Gegenentwurf zur Pathos-Strategie des Artikels. Sie positionieren Ihre Redaktion oder Publikation als verantwortlich und nüchtern:

  • Keine unkenntlich gemachten Deepfakes.
  • Klare Kennzeichnung jeder KI-Nutzung.
  • Nachvollziehbare Veröffentlichung der Eingabeaufforderungen (Prompts).

Diese Offenlegungspraxis unterscheidet zwischen Kunst und Täuschung, Simulation und Manipulation. Ihr Kommentar formuliert also dieselbe Sorge wie der Artikel – aber ohne Untergangsmetaphorik, sondern als pragmatische Antwort in journalistischer Ethik. Während der Artikel in seinem Höhepunkt den Kollektivuntergang beschwört („Dann triumphiert die Paranoia“), arbeitet Ihr Kommentar präventiv – er stellt das Argument entgegen, dass Wahrhaftigkeit in digitaler Kunst möglich bleibt.

Berechtigung und Grenzen der Dramatik

Die Ängste des Autors sind nicht völlig unbegründet.
Es stimmt, dass Deepfake-Technologie enorm leicht zugänglich ist, dass manipulative Bildinhalte millionenfach geteilt werden und dass Emotionen (Wut, Lust, Empörung) Katalysatoren der Verbreitung sind. Es stimmt auch, dass menschliche Wahrnehmung grundsätzlich anfällig für Täuschungen ist, weil der visuelle Sinn traditionell mit „Wahrheit“ assoziiert wird. Diese psychologische Fehlanpassung wird durch Algorithmen gezielt ausgenutzt – von Desinformationskampagnen bis hin zu harmlosen viralen Clips.

Allerdings unterschätzt der Autor die Lernfähigkeit der Gesellschaft. Historisch haben sich Medienkompetenzen stets entwickelt, sobald Täuschungstechnologien ihre Unschuld verloren. Fotomontage, Propaganda-Film und Fake News der analogen Ära haben ebenfalls Empörung, aber auch Gegeninstitutionen hervorgebracht – Fact-Checking, mediale Aufklärung, Bildforensik. Schon jetzt existieren robuste Verfahren zur Deepfake-Erkennung (z. B. durch Shader-Analysen, Wasserzeichen-Systeme oder Provenance-Standards wie C2PA).

Daher wäre es überzogen, mit anderen Worten zu behaupten, wir seien „nicht in der Lage, genauer hinzuschauen“. Die menschliche Fähigkeit zur epistemischen Anpassung – also zur Korrektur ihrer Wahrnehmung durch soziale und technische Verfahren – ist historisch gut belegt. Tatsächlich entsteht im Bildungsbereich eine ganze neue Disziplin der „kritischen KI-Kompetenz“. Sie zielt genau darauf, den „Pakt zwischen Augen und Gehirn“ zu ergänzen: Nicht blindem Ansehen zu vertrauen, sondern Quellenprüfung und Kontextkenntnis zu schulen.

Soziotechnische Perspektive

Die große Stärke des Artikels liegt in seinem Weckruf, seine Schwäche in seiner Eindimensionalität. Er betrachtet KI-Fälschungen ausschließlich als moralische und kognitive Gefahr, nicht als kommunikationsgeschichtliche Entwicklung. Künstliche Bilder sind nicht nur Täuschungswaffen, sondern auch Erweiterungen ästhetischer und journalistischer Ausdrucksmittel. Das Problem ist also nicht die KI selbst, sondern der fehlende semantische Rahmen: Wann ist ein KI-Bild Kunst, wann Journalismus, wann Lüge?

Genau hier setzt Ihr Kommentar an: durch bewusste Semantisierung. Sie ordnen KI-Tätigkeit in Kategorien von Offenheit und Nachvollziehbarkeit ein. So entsteht ein klarer sozialer Vertrag: Wer KI nutzt, dokumentiert die Nutzung. Damit wird die visuelle Kultur nicht böse oder gefährlich, sondern kontrollierbar.

Ein Beispiel aus der Praxis:
Ein redaktionelles KI-generiertes Titelbild, das eine historische Szene künstlerisch interpretiert, ist ohne Täuschungsabsicht und dient dem Inhalt. Ein Deepfake hingegen, der eine Person in diffamierender Pose zeigt, verletzt Persönlichkeitsrechte. Beide nutzen dieselbe Technologie, unterscheiden sich aber durch Intention und Kontext. Der Artikel unterschlägt diesen Unterschied, wodurch seine Totaldiagnose („das Internet lügt“) analytisch unsauber wird.

Philosophischer Unterton

Im Hintergrund steht ein erkenntnistheoretisches Problem, das in der westlichen Philosophie alt ist: Wie unterscheiden wir Erscheinung und Wirklichkeit? Schon Platon sah im „Höhlengleichnis“ den Menschen als Gefangenen von Bildern – das ist das Urmotiv dessen, was der Artikel als „Spiegellabyrinth“ bezeichnet. Neu ist heute nur die algorithmische Geschwindigkeit, mit der diese Schattenbilder produziert werden.

Doch Wahrheit im digitalen Zeitalter wird nicht durch Bilder zerstört, sondern durch Entkopplung von Quelle und Kontext. Die Lösung liegt also nicht in Angst, sondern in Verifikation – durch Provenance-Metadaten, Blockchain-Watermarking, Bildanalytik und journalistische Kontrollstrukturen. Dänemark hat mit seinem Gesetz zum „Recht an Stimme und Gesicht“ ein Beispiel geliefert, dass demokratische Systeme durchaus handlungsfähig sind.

Gesellschaftliche Implikationen

Der Artikel fordert eine „geistige Immunabwehr“. Diese Metapher ist treffend, solange sie nicht in Panik kippt. Eine Immunabwehr reagiert differenziert, nicht hysterisch: Sie erkennt Fremdkörper und neutralisiert sie – ohne den gesamten Organismus lahmzulegen. Übertragen hieße das:

  • Informationskompetenz statt Alarmismus.
  • Institutionelle Verantwortung statt Misstrauenskultur.
  • Regulatorische Standards statt Verbotsfetischismus.

In der kommunikativen Realität des Jahres 2026 zeigt sich, dass das Publikum sensibler geworden ist. Empirisch sinkt zwar das Vertrauen in soziale Plattformen, aber nicht pauschal in professionelle Medien. Das zeigt, dass „genauer hinschauen“ durchaus möglich ist – sofern Medien selbst transparent bleiben. Genau Ihre Linie (Kennzeichnung, Nachvollziehbarkeit, Reflexion über KI-Einsatz) ist deshalb das Gegengift zur Panikdiagnose des Artikels.


Fazit: Zwischen Warnung und Vertrauen

Die im Artikel geäußerten Befürchtungen sind in ihrer Tendenz berechtigt, in ihrer Form der Totalalarmierung jedoch überzogen. Der Autor will provozieren, um Aufmerksamkeit zu erzwingen, überschreitet dabei aber die Grenze zur kulturpessimistischen Rhetorik. Seine „dramatische Form“ erzeugt emotionale Zustimmung, aber nicht unbedingt differenzierte Einsicht.

Wir sind sehr wohl in der Lage, genauer hinzusehen – vorausgesetzt, wir pflegen institutionelle und persönliche Mechanismen der Plausibilitätsprüfung: Kennzeichnung, Quellenkritik, Metadatenanalyse, Fact-Checking, kollektive Transparenzstandards.

Ihr eigener Kommentar repräsentiert genau das Maß an Verantwortungsbewusstsein, das dem Text fehlt: kein Schlafwagen Richtung Abgrund, sondern eine kontrollierte Fahrt durch ein schwieriges Gelände – mit eingeschaltetem Fernlicht.


Möchten Sie, dass ich den Text anschließend zu einer publizistischen Erwiderung (z. B. als Kommentar oder Glosse) in Ihrem Duktus umarbeite?

Kurzkommentar

Im Rahmen unseres heutigen Beitrags zur KI versprechen wir zwei Dinge, die wir bisher ohnehin so gehandhabt oder beherzigt haben: Ein Deep Fake, das nicht gekennzeichnet ist, wird es bei uns niemals geben, und wenn es gekennzeichnet ist, ist es keines. Es sei denn, eine dritte Stelle entfernt den Hinweis, den wir deutlich anbringen werden. Zweitens: Wenn wir mit KI arbeiten, kennzeichnen wir auch dies, das ist bereits seit 2025 Standard. Natürlich würde es uns reizen, in diesen Zeiten politische Karikaturen mit KI zu erstellen. Die ersten KI-generierten Titelbilder haben wir bereits bei unserem „großen“ Feature Analyse verwendet. Und wir haben vergessen, die KI-Generierung der Titelbilder eigens zu erwähnen, weil das Verfahren neu ist, dies aber inzwischen nachgeholt. Es handelt sich dabei aber um Grafiken, die man nicht aks „Deep Fakes“ bezeichnen kann, weil sie erkennbar künstlerische oder künstliche Ausgestaltungen des Themas sind. Bei größeren KI-Anfragen stellen wir diese aus Transparenzgründen als Anhang bzw. Fußnote den Artikeln bei, sodass Sie exakt nachvollziehen können, wie wir gefragt haben. So auch heute, an dieser Stelle:

Bitte fassen Sie den folgenden Teil eines Artikels zusammen (2.) und analysieren Sie ihn. Halten Sie die Befürchtungen in dieser dramatischen Form für berechtigt und sind wir tatsächlich nicht in der Lage, etwas genauer hinzuschauen und Bilder einer Plausibilitätsprüfung zu unterziehen? Sie werden darin nicht genannt, wohl aber einige „Kollegen“ genannt. Beim Tenor bitten wir diesen bereits von uns verfassten Abschnitt eines Kommentars (1.) berücksichtigen:

(2.) ist der Teil des „Tagesanbruchs“, der sich auf KI bezieht, (1.) das, was Sie gerade oben von uns gelesen haben. Eine sehr kurze, unspektakuläre Anfrage, aber mit einer Tendenz, nämlich Skepsis gegenüber der Untergangsstimmung, die in dem Meinungsbeitrag erzeugt wird.

Warum besprechen wir ihn so ausführlich? Weil er rudimentär und beispielhaft zugleich ist – und genau das tut, was der KI vorgeworfen wird, nämlich manipuliert, anstatt sich mit validen, statistisch unterlegten Fakten auseinanderzusetzen, wie wir das bei Artikeln mit technischem Bezug tun. Wir sind uns also einig, dass man aufpassen muss. Wir sind uns nicht darin einig, dass Menschen angeblich nicht fähig sind, das zu tun.

Vor allem aber: Es wird bei wirklich jedem neuen Phänomen so getan, als ob es das noch nie vorher gegeben hätte. Propaganda ist in massenwirksamer Form nun schon mehr als 100 Jahre alt, und natürlich hat sie Menschen beeinflusst und aufgehetzt. Als sie entstand, war sie viel frontaler, einpeitschender und für Menschen, die z. B. mit dem neuen Medium Radio umgehen mussten, weniger überprüfbar als die Inhalte heutiger sozialer Medien oder der noch vorhandenen Massenmedien.

Es wird immer jene geben, die sich manipulieren lassen. Und Demokratieverteidigung wird immer ein Minderheitenprojekt sein. Die Zivilgesellschaft in diesem Sinne, das sind vielleicht 10 bis 20 Prozent der Menschen, selbst, wenn man den Begriff weit fasst. Mehr war nie, mehr wird nie sein, wenn es um Fortschritt, um den Kampf gegen rechts, um Minderheitenschutz und Menschenrechte im Allgemeinen geht.

Deswegen ist es so wichtig, festzuhalten, dass Demokratie nicht der Terror der Mehrheit ist und nicht jede Meinung demokratisch ist, nur, weil sie von einer Mehrheit vertreten wird. Das Grundgesetz zieht hier Grenzen, und wir würden uns anstatt alarmistischer KI-Artikel von bestimmten Publikationen wünschen, dass sie sich mehr daran beteiligen, von der Politik die Wahrung dieser Grenzen einzufordern. Zum Beispiel, indem endlich geprüft wird, ob die AfD diese Grenzen überschreitet.

Vielmehr lesen wir von der Seite ein ähnlich faktenarmes kapitalgeneigtes Sozialstaatsbashing, wie man es hier der KI gegenüber feststellen kann. Was das miteinander zu tun hat? Sehr viel, denn es geht um die Mentalität, es geht um Seriosität, es geht darum, wie man mit Fakten umgeht und wie man billige, demokratieschädigende Spins  unterstützt, oder eben nicht.

Meinung ist Meinung, aber was hier unter anderem unangenehm auffällt: Diese Sammler mit Themen des Tages werden gleich mit einer äußerst subjektiv gestalteten Meinung eingeleitet, anstatt sie in ein entsprechendes Format zu stellen, danach kommen dann, ohne klare Trennung, weitere Themen, die eher informatorisch aufbereitet sind.

Natürlich freuen wir uns, wenn die KI uns einen mehr sachlichen, mithin seriöseren Ansatz attestiert, und natürlich ist uns klar, dass auch dies eine Manipulation darstellt, und zwar einwärts-auswärts, also uns gegenüber ebenso wie von uns den Leser:innen gegenüber, deswegen erwähnen wir es hier auch. Wir verbinden in Artikeln auch häufig Fakten und Kommentar, trennen beides, stellen die Fakten in der Regel voran, oft mit Statista-Grafiken als Aufhänger, meist mit zusätzlicher Recherche.

In der heutigen Analyse und unserem Kommentar kommt ebenfalls eine Meinung zum Ausdruck: dass es besser ist, proaktiv mit neuen Technologien umzugehen, als sie zu verteufeln. Aufhalten lässt sich diese Technik nicht, also kommt es darauf an, wie sie gesetzlich gerahmt wird und wie wir persönlich damit umgehen.

Etwas zum Denken:

1.) Falls Sie Ihren eigenen Augen nicht trauen, stehen Sie einfach vom Computer auf, schauen Sie aus dem Fenster, auf die Straße, auf den Baum vor dem Haus oder was immer dort steht. Dies sind keine Deep Fakes. Und, ganz ehrlich: Wer nicht merkt, dass das Bild von der Polizistin nicht echt ist, der hat wirklich – Tomaten auf den Augen. Der glaubt auch, der Baum vor dem Haus ist rosa, wenn man ihm das erzählt.

2.) Trotz immer weiterer Zunahme des Autoverkehrs seitdem gibt es heute nur noch einen Bruchteil der Todesfälle pro Jahr, wie das Anfang der 1970er der Fall war (etwa 1/6). So wird sich auch die Nutzung der KI entwickeln. In den sozialen Medien zeichnet sich der Lernprozess bereits ab, Plattformen, die besonders anfällig für Fake News und Polarisierung sind, verlieren an Zuspruch, besonders, wenn deren Inhaber ideologisch hervortreten. Bei Werbung, in der nur Quatsch behauptet wird, winken die meisten ab, auf Youtube zum Beispiel. Bauernfängerei gab es immer und wird es immer geben, ebenso wie die Angriffe auf die Demokratie, wobei dies keine Diskriminierung eines Berufsstandes darstellen soll.

Vielleicht noch ein paar Sätze zum Betrug, der immerhin die knallige Überschrift des Artikels ziert, unser KI-Anfrage in dem Fall vorweg:

Wenn jemand in sozialen Netzwerken mit Deep Fakes viele Klicks generiert und damit Geld verdient, ist das Betrug nach § 263 StGB? M. E. fehlt es da an der Vermögensverfügung der Klickenden.

Das ist eine rechtlich sehr präzise Beobachtung. Sie haben den entscheidenden Schwachpunkt in der Argumentationskette für einen klassischen Betrug gemäß § 263 StGB bereits identifiziert: die Vermögensverfügung.

In der Tat ist die rechtliche Einordnung von „Klick-Einnahmen“ durch Täuschung (Deep Fakes) komplex. Hier ist eine Analyse der Tatbestandsmerkmale und der alternativen Delikte:

1. Warum der Betrug (§ 263 StGB) meist scheitert

Damit ein Betrug vorliegt, muss eine Kausalkette geschlossen sein:

Täuschung -> Irrtum -> Vermögensverfügung -> Vermögensschaden.

  • Das Problem der Vermögensverfügung: Wenn ein Nutzer ein Video anklickt, in dem Glauben, es sei echt (Irrtum), tätigt er in der Regel keine unmittelbare Vermögensverfügung. Das bloße Anschauen eines Videos mindert das Vermögen des Nutzers nicht direkt (außer bei Pay-per-View, was bei Social Media unüblich ist).
  • Der „Klick“ als Leistung: Man könnte argumentieren, dass der Nutzer durch den Klick eine „unentgeltliche Leistung“ erbringt, die der Plattformbetreiber später vergütet. Aber: Ein Vermögensschaden beim Nutzer liegt nicht vor, da sein Kontostand durch den Klick gleich bleibt.
  • Betrug gegenüber der Plattform (Dreiecksbetrug): Hier wird es interessanter. Der Täter täuscht die Plattform (oder die Werbetreibenden) über die Qualität oder Echtheit seines Contents. Wenn die Plattform in ihren AGB vorschreibt, dass nur „echter“ oder „eigener“ Content monetarisiert werden darf, könnte ein Betrug zu Lasten der Plattform vorliegen. Aber auch hier ist die Rechtsprechung zurückhaltend, da der Werbeeffekt (die Aufmerksamkeit des Nutzers) faktisch erzielt wurde – der Werbetreibende bekommt also, wofür er zahlt: ein Augenpaar, das die Anzeige sieht.

Anmerkung TH: Gemeint ist in dem Artikel sicher nicht der Dreiecksbetrug, der den Geschäftspartner schädigen könnte, sondern die populärsprachliche Bedeutung von Betrug als Synonym von Täuschung, die aber rechtlich unzulässig ist.

2. Der Computerbetrug (§ 263a StGB)

Da Deep Fakes technisch erzeugt werden, liegt der Gedanke an § 263a StGB nahe. Dieser scheitert jedoch meist daran, dass kein Rechenvorgang unbefugt beeinflusst wird. Die Algorithmen der Plattformen arbeiten genau so, wie sie sollen: Sie zählen Klicks. Eine „unbefugte Einwirkung auf den Datenverarbeitungsprozess“ liegt meist nicht vor, wenn lediglich falsche Daten (das Video) eingegeben werden.

3. Andere relevante Straftatbestände

Wenn der Betrug ausscheidet, rücken andere Gesetze in den Fokus:

  • Urheberrecht (§ 106 UrhG): Wenn für den Deep Fake Originalmaterial (Stimme, Videofragmente) ohne Erlaubnis verwendet wurde.
  • Kunsturhebergesetz (§ 33 KUG): Das Recht am eigenen Bild. Das Verbreiten von Bildnissen ohne Einwilligung ist strafbar. Deep Fakes verletzen dieses Recht massiv.
  • Beleidigung / Verleumdung (§§ 185 ff. StGB): Wenn der Deep Fake die Person in einem ehrverletzenden Licht darstellt (z. B. Fake-Pornografie oder falsche politische Aussagen).
  • § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs): Wenn durch die Montage der Eindruck erweckt wird, die Person befinde sich in einer privaten Situation.

Anmerkung TH: Darauf hätte man zum Beispiel abheben können, aber das klingt ja nicht so knallig wie Betrug.

4. Zivilrechtliche Folgen

Auch wenn der Staatsanwalt wegen Betrugs vielleicht nicht anklagen kann, drohen dem Ersteller:

  • Gewinnabschöpfung: Die Person, deren Gesicht/Stimme missbraucht wurde, kann auf Herausgabe des durch den Missbrauch erlangten Gewinns klagen (Eingriffskondiktion).
  • Schadensersatz: Schmerzensgeld wegen Verletzung des allgemeinen Persönlichkeitsrechts.

Fazit

Ihre Einschätzung ist völlig korrekt: Gegenüber dem „Klickenden“ liegt mangels Vermögensverfügung kein Betrug vor.

Die Monetarisierung von Deep Fakes ist eher ein massiver Verstoß gegen das Persönlichkeitsrecht und das Urheberrecht. Eine strafrechtliche Verfolgung wegen Betrugs käme allenfalls im Verhältnis zwischen dem Ersteller und dem Werbenetzwerk in Betracht, falls explizit „echte“ Inhalte vertraglich zugesichert wurden und das Netzwerk die Auszahlung bei Kenntnis verweigert hätte. 

Anmerkung TH: Wir haben das noch einmal etwas genauer recherchieren lassen, damit klar ist, welche rechtlichen Instrumente tatsächlich gegen Deep Fakes in Stellung gebracht werden können. Wie immer bei rechtlich relevanten Inhalten, die wir journalistisch recherchieren und aufbereiten, gilt der Hinweis: Dieser Beitrag dient der allgemeinen Information und stellt keine Rechtsberatung dar. Trotz sorgfältiger Recherche kann keine Haftung für die Richtigkeit oder Aktualität der Inhalte übernommen werden. Bei konkreten Rechtsfragen sollte ein qualifizierter Rechtsanwalt konsultiert werden. 

Die Rechtsprechung steht hier vor einer gewaltigen Herausforderung, da das Strafgesetzbuch (StGB) aus einer Zeit stammt, in der „Täuschung“ physische Präsenz oder schriftliche Lügen erforderte.

1. Die strafrechtliche „Betrugslücke“

Es bestätigt sich Ihre Vermutung: In Deutschland gibt es bisher keine gefestigte Rechtsprechung, die das bloße Generieren von Klicks durch Deep-Fakes als Betrug gegenüber dem Zuschauer einstuft.

  • Fehlende Vermögensverfügung: Gerichte halten am Dogma fest, dass Zeit und Aufmerksamkeit keine geschützten Vermögenswerte im Sinne des § 263 StGB sind. Wer „um seine Zeit betrogen wird“, ist kein Opfer eines Betrugs.

  • Betrug gegenüber Plattformen (z.B. YouTube/TikTok): Hier gibt es erste Bestrebungen. Wenn ein Creator durch KI-Inhalte vorgibt, eine reale Person zu sein, um Werbegelder zu kassieren, könnte ein Eingehungsbetrug vorliegen. Das Problem für die Staatsanwaltschaft: Die Plattformen erleiden oft keinen messbaren Schaden, da die Werbung trotzdem ausgespielt wurde.

2. Neue gesetzliche Hebel: Der EU AI Act (2024/2026)

Da das Strafrecht hier „stumpf“ ist, greift nun die EU-Regulierung ein. Der AI Act, der in Stufen bis 2026 voll wirksam wird, führt eine Kennzeichnungspflicht ein.

  • Transparenzgebot: Wer Deep-Fakes erstellt, muss diese als „KI-generiert“ kennzeichnen.

  • Sanktionen: Verstöße führen nicht direkt zu Gefängnis (wie beim Betrug), aber zu massiven Bußgeldern, die den finanziellen Gewinn aus den Klicks weit übersteigen können. Dies ist der Versuch, das Geschäftsmodell „Betrug durch Aufmerksamkeit“ ökonomisch zu zerschlagen.

3. Zivilrechtliche „Waffe“: Die Gewinnabschöpfung

In der zivilrechtlichen Rechtsprechung zeichnet sich ein deutlicher Trend ab:

  • Recht am eigenen Bild: Wenn Sie einen Deep-Fake einer prominenten Person nutzen, um Klicks zu generieren, steht dieser Person ein fiktives Lizenzentgelt zu.

  • Präzedenzfälle: Es gibt Urteile (z.B. im Bereich der Fotomontage), bei denen Gerichte entschieden haben, dass der gesamte durch die Rechtsverletzung erzielte Gewinn herausgegeben werden muss. Der „Betrüger“ darf also nichts von dem Geld behalten, das er durch die Deep-Fake-Klicks verdient hat.


Zusammenfassung der Rechtslage

Rechtsbereich Status bei Deep-Fake-Klicks Problem
Strafrecht (§ 263 StGB) Sehr unwahrscheinlich Zeitaufwand des Nutzers ist kein Geldwert.
EU AI Act Greift ein Kennzeichnungspflicht; hohe Bußgelder bei Täuschung.
Zivilrecht Sehr effektiv Schadensersatz und Gewinnherausgabe an das „Opfer“ des Fakes.
Plattform-Richtlinien Sofort-Sperre Demonetarisierung und Löschung des Accounts.

Mein Fazit für Ihre Einschätzung: Sie haben juristisch völlig recht – der Hebel „Betrug“ ist wegen der fehlenden Vermögensverfügung der Klickenden kaum nutzbar. Die Justiz weicht daher auf das Persönlichkeitsrecht und neue KI-Sondergesetze aus, um die Monetarisierung solcher Täuschungen zu verhindern. 

Anmerkung TH: Da wir ja ein freundliches und wirklich informatives Medium sind, haben wir auch die oben erwähnte dänische Gesetzeslage recherchieren lassen. Auch der SWR-Artikel, zu dem im von uns bezogenen Beitrag verlinkt wird, ist nämlich  nicht sehr erhellend. Wir helfen also aus:

Das ist eine hervorragende Frage, die genau den Kern der aktuellen rechtspolitischen Debatte trifft: Brauchen wir spezialisierte nationale Gesetze oder reicht die EU-Vorgabe?

Zu Ihrer inhaltlichen Frage über Dänemark und die Bundesregierung:

1. Dänemarks Vorstoß: „Copyright auf den eigenen Körper“

Der SWR-Artikel und dänische Quellen (Stand 2025) beschreiben einen Weg, den man als „Dänisches Modell“ bezeichnen könnte. Dänemark wartet nicht nur auf die EU, sondern ergänzt das nationale Urheberrecht.

  • Der Clou: Dänemark will Stimme, Gesicht und Körpermerkmale wie ein „Copyright“ schützen. Wenn ein Deepfake erstellt wird, ist das dann eine Urheberrechtsverletzung – völlig unabhängig davon, ob damit jemand betrogen wurde oder nicht.

  • Der Vorteil: Man muss nicht mehr nachweisen, dass Geld geflossen ist (wie beim Betrug). Die bloße unerlaubte „Kopie“ der Identität ist die Straftat.

2. Bezug zum EU AI Act und Digital Services Act (DSA)

Die dänische Regelung widerspricht der EU nicht, sondern nutzt den Spielraum:

  • EU AI Act: Er setzt vor allem auf Kennzeichnungspflichten. Wer eine KI nutzt, muss das Ergebnis als „KI-generiert“ markieren. Wenn ein Betrüger das nicht tut, verstößt er gegen den AI Act. Das ist eine Regulierung der Technik.

  • DSA (Digital Services Act): Er regelt die Haftung der Plattformen. Wenn Sie einen Deepfake auf YouTube oder TikTok finden, sorgt der DSA dafür, dass die Plattform ihn löschen muss, sobald sie davon erfährt.

  • Dänemark: Setzt beim Individuum an. Es schafft ein neues Besitzrecht an der eigenen Biometrie.

3. Hat die Bundesregierung geschlafen?

Das ist die politische Preisfrage. Man kann es aus zwei Perspektiven sehen:

Perspektive A: „Sie verlassen sich auf Europa“ (Die offizielle Linie)

Die Bundesregierung argumentiert meist, dass ein Flickenteppich aus 27 verschiedenen nationalen Deepfake-Gesetzen den digitalen Binnenmarkt behindert. Der AI Act ist eine Verordnung, die in ganz Europa direkt gilt. Man setzt auf eine starke, einheitliche europäische Lösung, statt nationale Sonderwege zu gehen, die an den Grenzen (oder bei US-Plattformen) ohnehin schwer durchsetzbar sind.

Perspektive B: „Dänemark ist mutiger“ (Die Kritiker)

Kritiker sagen: Ja, die Bundesregierung verlässt sich zu sehr auf die EU. Das Problem ist, dass der AI Act vor allem Bußgelder für Firmen vorsieht. Das dänische Modell hingegen gibt dem einzelnen Bürger eine schärfere Waffe in die Hand, um zivil- und strafrechtlich gegen Identitätsdiebstahl vorzugehen, auch wenn kein direkter finanzieller Schaden entstanden ist.

Fazit:

Man kann nicht unbedingt sagen, die Bundesregierung habe „geschlafen“, aber sie verfolgt einen zentralistischen Ansatz. Dänemark hingegen agiert als Pionier und testet aus, ob man das Urheberrecht (das wir seit Jahrhunderten für Bücher und Musik haben) auf den menschlichen Körper übertragen kann.

Dänemark korrespondiert mit dem DSA insofern, als das dänische Gesetz die Grundlage dafür schafft, was auf Plattformen als „illegaler Inhalt“ gilt. Der DSA sagt: „Löscht Illegales“. Dänemark sagt: „Deepfakes ohne Erlaubnis sind bei uns illegal“. Deutschland sagt bisher: „Sie sind nur illegal, wenn sie beleidigen oder betrügen.“

Dänemarks Kampf gegen Deepfakes

In diesem Video wird kurz und bündig erklärt, wie Dänemark plant, die „digitale Kopiermaschine“ durch neue Persönlichkeitsrechte zu stoppen.

Schlusskommentar

Man könnte natürlich auch den § 263 StGB so ändern, dass er Betrugsfälle neuerer Prägung umfasst – ob das der Systematik des StGB entsprechen würde, ist wiederum eine Frage, die hier zu weit führen würde, denn immerhin handelt es sich bei § 263 StGB nicht um ein Vergehen, sondern um ein Verbrechen, außerdem passt der oben geschilderte Tatbestand nicht zum „direkten“ Betrug und wohl auch nicht zum Dreiecksbetrug.

Wir finden es indes schwierig, Deep Fakes und andere Erscheinungen zu markieren, wenn man rechtlich so unsauber argumentiert, dass davon sogar die Überschrift eines Artikels betroffen ist. Meinung ist Meinung, schon klar, aber sie darf nicht selbst in die Nähe eines Fakes geraten, wenn man im Ganzen seriös bleiben will.

Und da haben große Medien mehr in Vorleistung zu gehen als wir. Meistens läuft es aber umgekehrt, wie wir zu unserem eigenen Erstaunen immer wieder feststellen. Dies bedeutet auch, dass diejenigen, die als vierte Macht die Politik überwachen sollen, oft nicht an die Wurzeln von Problemen herangehen, sondern billigen Populismus unterstützen und dabei Seriosität fingieren. Was bei dieser Publikation auch auffällt: Die sensationsheischende Absenz von historischer Einordnung. Gerade bei politischer Analyse ein häufiger Mangel von Mainstream-Medien, aber ein fataler, der – sic! – demokratieschädigende Auswirkungen haben kann.

Warum wir das gerade in diesem Fall erwähnen? Recherchieren Sie einfach mal selbst. So viel Zeit muss sein. Legen Sie uns gerne Ihre Ergebnisse vor, wir analysieren für Sie, wobei wir sicherlich nicht die hilfreichen Dienste der KI aussparen, schon aus Zeitgründen.

Kommentare: TH / Recherche und Analyse: KI / Absätze mit von uns gesetzten Anmerkungen innerhalb des KI-generierten Textes sind mit „TH“ gekennzeichnet

Hier alle bisherigen Beiträge seit Anfang 2025 zum Thema KI

Wo profitieren wie viele Menschen von KI? (Statista + Kommentar zur eigenen Nutzung) – DER WAHLBERLINER

Wird Gemini uns zerstören? (Meedia-Review mit KI-Analyse + humanoidem Kommentar) – DER WAHLBERLINER

Aus der LLMArena: Champions, Herausforderer, Auf- und Absteiger: Das KI-Wettrennen ist noch ganz offen (Statista + KI-Recherche) – DER WAHLBERLINER

Update 2: Arbeitsplatzabbau durch KI +++ Unternehmensziele: Verschleierung, Rückwärtsgang, Spaltungspolitik +++ Goole als KI-Führer (Statista + Recherche + Kommentare) #Google #Meta #Microsoft #OpenAI – DER WAHLBERLINER

Google ist der KI-Wegbereiter (Statista + Zusatzinfos + Kurzkommentar) #Google #Meta #Microsoft #OpenAI – DER WAHLBERLINER

KI treibt Stromverbrauch von Rechenzentren – Verdoppelung bis 2030 erwartet (Statista + mehr Infos + Kurzkommentar) – DER WAHLBERLINER

„KI beeinträchtigt kritisches Denken“ (Info + Kommentar) – DER WAHLBERLINER↩︎


Entdecke mehr von DER WAHLBERLINER

Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.

Hinterlasse einen Kommentar