In der digitalen Landschaft des Jahres 2026 ist die Manipulation von Bild- und Tonmaterial durch Künstliche Intelligenz (KI) – sogenannte Deepfakes – von einer technologischen Kuriosität zu einer ernsten gesellschaftlichen und rechtlichen Herausforderung avanciert. Ein prominentes Beispiel, das die Dringlichkeit politischer Maßnahmen unterstreicht, ist der Fall der Moderatorin Collien Ulmen-Fernandes. Ihre Erfahrung hat die Debatte über Lücken im deutschen Strafrecht und die Notwendigkeit spezifischer Gesetzgebung massiv befeuert. Für Plattformen wie derzeitkurier.de steht die objektive Berichterstattung über diese Schnittstelle von Technologie und Recht im Fokus.
Der Fall Ulmen-Fernandes ist kein Einzelfall, sondern symptomatisch für eine Entwicklung, bei der die Identität von Personen des öffentlichen Lebens – aber zunehmend auch von Privatpersonen – für betrügerische oder diffamierende Zwecke missbraucht wird. Die technologischen Hürden zur Erstellung täuschend echter Fälschungen sind in den letzten Jahren drastisch gesunken, während die Qualität der Ergebnisse exponentiell gestiegen ist.
Identitätsdiebstahl 2.0: Der konkrete Missbrauch im Fall Ulmen-Fernandes
Wie Spiegel Online berichtet, wurde Collien Ulmen-Fernandes Opfer einer perfiden Deepfake-Kampagne. Unbekannte Täter nutzten ihr Konterfei und ihre Stimme, um KI-generierte Werbevideos für dubiose Finanzprodukte zu erstellen. In diesen Fälschungen schien die Moderatorin persönliche Empfehlungen für Investitionen auszusprechen, die sich als betrügerisch herausstellten.
Die Auswirkungen für die Betroffenen sind gravierend. Ulmen-Fernandes berichtete nicht nur von der psychischen Belastung und dem Gefühl der Ohnmacht angesichts der virtuellen Manipulation ihrer Identität, sondern auch von konkreten rechtlichen und reputativen Konsequenzen. Sie wurde von geprellten Anlegern kontaktiert, die im Glauben an ihre Empfehlung Geld verloren hatten. Die Moderatorin sah sich gezwungen, öffentlich klarzustellen, dass sie mit diesen Werbeclips nichts zu tun hat, und juristische Schritte einzuleiten – ein Prozess, der sich aufgrund der Anonymität der Täter im Netz als äußerst schwierig erweist.
Dieser Vorfall verdeutlicht, dass Deepfakes weit über harmlose Parodien oder Unterhaltung hinausgehen. Sie werden gezielt eingesetzt, um Vertrauen zu erschleichen, Betrugsdelikte zu begehen und die Glaubwürdigkeit von Einzelpersonen zu zerstören. Die existierenden Mechanismen zum Schutz des Persönlichkeitsrechts und des Rechts am eigenen Bild stoßen in der Praxis oft an ihre Grenzen, wenn KI-generierte Inhalte massenhaft und automatisiert verbreitet werden.
Die politischen Forderungen: Grüne und Linke drängen auf Handlungsbedarf
Die Reaktion der Politik auf den Fall Ulmen-Fernandes und ähnliche Vorfälle war eindeutig. Insbesondere Vertreter der Parteien Bündnis 90/Die Grünen und Die Linke meldeten sich zu Wort und forderten eine Verschärfung der bestehenden Gesetze. Sie argumentieren, dass der aktuelle Rechtsrahmen unzureichend sei, um den spezifischen Gefahren von Deepfakes effektiv zu begegnen.
Forderungen von Bündnis 90/Die Grünen: Die Fraktion der Grünen betont die Notwendigkeit, das Strafrecht an die Realitäten des digitalen Zeitalters anzupassen. Sie fordern eine Präzisierung des Tatbestands des Identitätsdiebstahls und die Einführung spezifischer Strafen für die Erstellung und Verbreitung von Deepfakes, die darauf abzielen, eine Person zu diskreditieren oder für betrügerische Zwecke zu nutzen. Auch die Verantwortlichkeit von Plattformbetreibern soll gestärkt werden, um die Verbreitung solcher Inhalte effektiver zu unterbinden. Es sei inakzeptabel, dass Betroffene wie Ulmen-Fernandes die Beweislast tragen und mühsam gegen die Fälschungen vorgehen müssen, während die Täter im Verborgenen bleiben.
Positionen von Die Linke: Die Linke geht in ihren Forderungen noch weiter. Sie betonen nicht nur die strafrechtliche Dimension, sondern auch die Notwendigkeit eines umfassenden Schutzes der Persönlichkeitsrechte im digitalen Raum. Sie fordern ein Verbot der nicht einwilligungsbedürftigen Erstellung und Verbreitung von KI-gestützten Abbildungen, die geeignet sind, die Ehre oder den Ruf einer Person erheblich zu schädigen. Dies schließt nicht nur betrügerische Werbeclips ein, sondern auch die Erstellung von nicht-konsensueller Deepfake-Pornografie, ein Bereich, der in den letzten Jahren ebenfalls stark zugenommen hat. Die Linke fordert klare Sanktionen und eine Vereinfachung der Rechtsdurchsetzung für Opfer.
Die politischen Forderungen spiegeln ein wachsendes Bewusstsein dafür wider, dass die fortschreitende Digitalisierung neue Formen der Kriminalität und der Verletzung von Persönlichkeitsrechten hervorbringt, die mit traditionellen Rechtsnormen nur unzureichend erfasst werden können. Die Debatte zeigt eine parteiübergreifende Einsicht, dass Handlungsbedarf besteht, um die Integrität des digitalen Raums und die Rechte der Einzelnen zu schützen.
Juristisches Neuland: Wo das deutsche Strafrecht an seine Grenzen stößt
Die aktuelle Rechtslage in Deutschland bietet zwar einige Ansatzpunkte zur Bekämpfung von Deepfakes, erweist sich jedoch in vielerlei Hinsicht als lückenhaft und unzureichend. Die bestehenden Gesetze wurden größtenteils formuliert, bevor KI-gestützte Manipulationen in dieser Qualität und Verbreitung möglich waren.
Herausforderungen im Strafrecht (StGB): Die Anwendung des Strafgesetzbuchs (StGB) auf Deepfake-Szenarien ist komplex. Zwar können Paragraphen wie § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen) oder § 185 ff. StGB (Beleidigung, Üble Nachrede, Verleumdung) unter bestimmten Umständen herangezogen werden. Doch diese Normen erfassen oft nicht den Kern des Problems: die Erstellung einer gänzlich fiktiven Darstellung einer realen Person. Wenn beispielsweise ein Deepfake-Video erstellt wird, das eine Person in einer peinlichen, aber nicht strafbaren Situation zeigt, oder wenn KI-generierte Pornografie ohne Einwilligung erstellt wird, ohne dass explizite Aufnahmen der betroffenen Person verwendet wurden, ist die strafrechtliche Verfolgung oft schwierig. Der Tatbestand des Identitätsdiebstahls ist im StGB ebenfalls nicht spezifisch genug gefasst, um die Komplexität von Deepfakes adäquat abzubilden.
Probleme bei der zivilrechtlichen Durchsetzung (KunstUrhG, BGB): Zivilrechtliche Ansprüche auf Unterlassung und Schadensersatz können sich auf das Kunsturhebergesetz (KunstUrhG, insbesondere das Recht am eigenen Bild nach § 22) und das Bürgerliche Gesetzbuch (BGB, insbesondere das allgemeine Persönlichkeitsrecht nach § 823 Abs. 1) stützen. Doch die Durchsetzung dieser Ansprüche gestaltet sich oft langwierig und kostspielig. Die Identifizierung der Täter ist im Internet oft unmöglich, und Plattformen reagieren oft nur langsam auf Löschaufforderungen. Zudem ist es für Opfer oft schwierig, den tatsächlichen Schaden nachzuweisen, der durch einen Deepfake entstanden ist, insbesondere wenn es sich um immaterielle Schäden wie Reputationsverlust oder psychische Belastung handelt.
Die Rechtsunsicherheit führt dazu, dass viele Opfer von Deepfakes davor zurückschrecken, rechtliche Schritte einzuleiten. Es fehlt an klaren, spezifischen und leicht durchsetzbaren Rechtsnormen, die den besonderen Gefahren von KI-gestützten Manipulationen Rechnung tragen. Die Debatte um schärfere Gesetze ist daher nicht nur eine politische Forderung, sondern auch ein Ausdruck der Notwendigkeit, das Rechtssystem an die technologischen Entwicklungen anzupassen und den Schutz der Einzelnen im digitalen Zeitalter zu gewährleisten.
Der europäische Rahmen: Der AI Act und seine nationalen Implikationen im Jahr 2026
Im Jahr 2026 ist die Regulierung von Künstlicher Intelligenz nicht mehr alleinige Sache der Nationalstaaten. Der AI Act der Europäischen Union ist mittlerweile in Kraft getreten und bildet den übergeordneten rechtlichen Rahmen für die Entwicklung und Nutzung von KI-Systemen. Wie Spiegel Online in einem früheren Bericht andeutete, hat die EU-Regulierung auch direkte Auswirkungen auf die nationale Debatte in Deutschland.
Kernaspekte des AI Act in Bezug auf Deepfakes: Der AI Act verfolgt einen risikobasierten Ansatz und stuft KI-Systeme in verschiedene Risikoklassen ein. Deepfake-Technologien fallen unter die Kategorie der „begrenzten Risiken“. Dies bedeutet, dass für diese Systeme spezifische Transparenzpflichten gelten. Entwickler und Nutzer von KI-Systemen, die Deepfakes erstellen, müssen sicherstellen, dass diese Inhalte eindeutig als KI-generiert gekennzeichnet sind. Ziel ist es, die Öffentlichkeit vor Täuschung zu schützen und die Authentizität von Inhalten überprüfbar zu machen.
Nationale Umsetzung und verbleibende Lücken: Obwohl der AI Act einen wichtigen Meilenstein darstellt, lässt er den Mitgliedsstaaten Spielraum bei der nationalen Umsetzung und insbesondere bei der strafrechtlichen Verfolgung. Die im AI Act vorgesehenen Transparenzpflichten zielen primär auf die Entwickler und Anbieter von KI-Systemen ab. Die Frage, wie mit Personen umzugehen ist, die diese Technologien missbräuchlich verwenden, um andere zu schädigen, bleibt weitgehend der nationalen Gesetzgebung überlassen.
Dies bedeutet, dass die Forderungen von Grünen und Linken nach schärferen Gesetzen gegen Deepfakes in Deutschland auch im Jahr 2026 hochaktuell sind. Die nationale Umsetzung des AI Act muss durch spezifische straf- und zivilrechtliche Normen ergänzt werden, um einen umfassenden Schutz vor den Gefahren von Deepfakes zu gewährleisten. Die Debatte hat sich von der Frage „Ob“ einer Regulierung hin zur Frage „Wie“ einer effektiven und verhältnismäßigen nationalen Gesetzgebung verschoben, die sowohl den technologischen Fortschritt als auch die Rechte der Einzelnen berücksichtigt.
Die Integration des europäischen Rechtsrahmens mit nationalen Schutzmaßnahmen ist eine der zentralen Aufgaben der Rechtspolitik im Jahr 2026. Es gilt, einen Ausgleich zu finden zwischen der Förderung von KI-Innovationen und der Abwehr von Missbrauch, um die Chancen der Technologie zu nutzen und gleichzeitig die Risiken zu minimieren. Der Fall Collien Ulmen-Fernandes dient dabei als ständige Mahnung, dass hinter den abstrakten Debatten über KI-Regulierung konkrete Schicksale und die Integrität unserer digitalen Identitäten stehen.
Die technologischen Möglichkeiten der Bild- und Tonmanipulation werden sich weiterentwickeln und neue, noch schwerer zu erkennende Fälschungen hervorbringen. Es liegt in der Verantwortung der Politik, die rechtlichen Rahmenbedingungen kontinuierlich anzupassen und einen wirksamen Schutz der Persönlichkeitsrechte im digitalen Zeitalter zu gewährleisten. Nur so kann das Vertrauen in die Integrität digitaler Informationen aufrechterhalten und die Chancen der Künstlichen Intelligenz verantwortungsvoll genutzt werden. Die Debatte um Deepfake-Gesetze ist daher weit mehr als nur ein politisches Geplänkel; sie ist ein fundamentaler Streit um die Zukunft unserer digitalen Gesellschaft und die Werte, die wir in ihr verteidigen wollen.
