KI-generiert, manipuliert oder „echt“?
Neue Technologien zur Content Authentifizierung
Über allem steht die Frage: Wie können sich Mediennutzer:innen der Herkunft und Echtheit von Inhalten sicher sein? Wie können wir uns vor (Deep)Fakes schützen, insbesondere auch vor solchen, die massenhaft und immer einfacher mithilfe von KI generiert werden? Was können Medienschaffende hier tun, um Transparenz zu bieten und um das Vertrauen in Medien zurückzugewinnen?
Angesichts der aktuellen Wahlkämpfe und Kriegssituationen erhalten diese Fragen eine besondere Brisanz. Und es gibt Hoffnung: Ob auf Basis von Kryptografie, Web3 oder neuer Hardware – digitale „Gütesiegel“ und „Beipackzettel“ bieten zunehmend effektive Ansätze, echte Inhalte von manipulierten oder KI-generierten zu unterscheiden.
Wir sprechen in einer Runde im Riesenrad mit Hans Brorsen, dem Mitgründer des Startups Valid darüber, welche technischen Lösungen zur Content Authentifizierung es aktuell für Texte, Bilder, Audios und Videos gibt, wie sich Projekte, wie die Content Authenticity Initiative (CAI)weiterentwickelt haben und wie Medienschaffende die richtige Lösung für sich finden und implementieren können.
Wir sprechen in einer Runde im Riesenrad mit Hans Brorsen, dem Mitgründer des Startups Valid darüber, welche technischen Lösungen zur Content Authentifizierung es aktuell für Texte, Bilder, Audios und Videos gibt, wie sich Projekte, wie die Content Authenticity Initiative (CAI)weiterentwickelt haben und wie Medienschaffende die richtige Lösung für sich finden und implementieren können.
powered by