Wie schützt man seine digitale Identität im KI-Zeitalter?
Artificial Identity – Deepfakes, Rights and Regulation
Scarlett Johansson war Ende 2017 eines der ersten prominenten Opfer von künstlich generierten Deep Fakes. Mit Hilfe von Künstlicher Intelligenz (KI) wurde das Gesicht der US-Schauspielerin in pornografische Aufnahmen montiert.
Ob Scarlett Johansson im Porno oder Papst Franziskus im Daunenanorak: Mit dem Siegeszug von KI sind gefakte Bilder und Stimmen zu einem Problem im Internet geworden. Kelsey Farish, Medien-Anwältin aus Großbritannien, unterstützt seit 2019 Menschen und ihre Arbeit vor KI-Risiken. Ihr Fokus liegt auf menschlichen Nachbildungen, Voice Cloning, Urheberrecht und Storytelling. In ihrer Keynote im Rahmen der MEDIENTAGE MÜNCHEN gab Farish Einblicke in die rechtlichen Herausforderungen im Zusammenhang mit KI-generierten Inhalten und informierte darüber, wie Menschen ihre Identitäten im Internet schützen können. Schließlich kann die eigene Identität – Stichworte hier: Deep Fakes, virtuelle Influencer:innen oder digitale Zwillinge – online schnell verzerrt dargestellt werden.
Um die Dimensionen, die KI inzwischen angenommen hat, zu verdeutlichen, nannte Farish einige Zahlen: 700 Millionen Menschen – etwa zehn Prozent der Erwachsenen weltweit – nutzen laut Farish inzwischen KI. Zwischen Juni 2024 und Juni 2025 sind dabei geschäftsbezogene Anfragen von 47 auf 27 Prozent zurückgegangen. Zunehmend greifen Creators auf Chat GPT & Co zurück: 87 Prozent haben ihr Volumen an KI-basierten Inhalten erhöht, 85 Prozent versprechen sich davon höhere Einnahmen. Die Content Creators setzen KI dabei verstärkt zur Erstellung von Inhalten ein. Wie schnell KI lernt, machte Farish an einem Beispiel deutlich: So sei KI inzwischen in der Lage, auf Basis eines einfachen Fotos einer Person in einer Weinbar eine ganze Geschichte rund um Emotionen, Hintergründen, Stimmungen und vieles mehr zu machen. „Da fließt viel Projektion mit hinein“, erklärte Farish. Somit steige auch die Gefahr von verzerrten Informationen. Ein weiteres Gefahrenfeld im KI-Zeitalter sei die Imitation von Stimmen (Voice Cloning).
Doch wie können Creators, Prominente oder auch Unternehmen ihre Identitäten im KI-Zeitalter vor Missbrauch und Deep Fakes schützen und ihre Persönlichkeitsrechte wahren? Farish empfahl, zunächst ein Framework für den Umgang mit KI zu definieren. Darin lasse sich beispielsweise klar definieren, welche Werte man transportieren möchte, was man als Person oder Unternehmen auf eine KI-Plattform hoch- oder herunterlädt oder auch, wo und wie man Inhalte distribuiert. Darüber hinaus seien klare Workflows zu definieren, und entscheidend sei auch, KI in das eigene IT-System zu integrieren. Last but not least, müsse der KI-Input immer wieder auch durch Menschen kontrolliert werden.
„Um seine Identität vor KI-Risiken zu schützen, braucht es eine klare Struktur“, betonte die Juristin. Struktur bedeute dabei nicht, die Arbeit und Aktivitäten im Internet einzuschränken. „Eine Struktur hält vielmehr alles zusammen und ermöglicht gleichzeitig Bewegung, wann und wie es nötig ist“, sagte Farish.