Content-Tsunami erfordert KI-Kompetenz
May I? Please? Oder: Wie funktioniert das Trainieren von KI mit urheberrechtlich geschützten Inhalten?
Wie steht es um die Fähigkeit unserer Gesellschaft, Künstliche Intelligenz (KI) zu verstehen, kritisch zu bewerten und reflektiert damit umzugehen? Mit dieser zentralen Frage nach der sogenannten AI Literacy beschäftigten sich Expert:innen im Rahmen der MEDIENTAGE MÜNCHEN.
Zum Auftakt gab die Wissenschaftlerin Lisa Mühl von der Universität Duisburg-Essen Einblicke in ein relativ junges sozialpsychologisches Phänomen: Immer mehr Menschen treten in romantische Interaktionen mit Chatbots. Dabei sei Einsamkeit nicht unbedingt der Hauptgrund für diese Beziehungen. Vielmehr gehe es diesen Personen darum, in vorurteilsfreien Räumen über Themen sprechen zu können, die sie beschäftigen. Genau darin aber besteht auch eine große Herausforderung. Denn, so erklärte Mühl. „Dort werden sehr viele intime Daten produziert.“ Und da müsse man sich immer die Frage stellen: „Wie würde es mir gehen, wenn diese Infos an die Öffentlichkeit gelangen?“
Nicht nur das Beispiel unterstreicht, wie wichtig Kompetenz im Umgang mit KI ist. Auch gefälschte Fotos und Videos stellen die Internetnutzer:innen vor immer neue Herausforderungen. Das Publikum müsse deshalb immer mehr wie Journalist:innen agieren, die dargestellten Fakten hinterfragen und die Quellen überprüfen, sagte Prof. Dr. Till Krause von der Hochschule Landshut. Eine Kennzeichnungspflicht für KI-generierten Content halte er ebenfalls für sinnvoll, aber nicht für ausreichend, weil solche Regularien niemals von allen befolgt würden. „Erzählen Sie das mal dem russischen Geheimdienst“, merkte Krause an.
Dr. Andreas Liebl, CEO der appliedAI Initiative, gab zu bedenken, dass Fakes auch nachwirken, selbst wenn sie als solche identifiziert werden. Als Beispiel führte er ein Bild in Social Media an, das vor einigen Monaten den Papst in einer dicken, weißen Daunenjacke gezeigt hatte. Auch wenn schnell bekannt war, dass es sich dabei um eine Fälschung handelte, sei dies in der Wahrnehmung vermutlich nicht ohne Folgen geblieben: „Ich bin überzeugt, wenn wir die Leute davor und danach gefragt hätten, wie cool der Papst ist, wird da ein statistischer Unterschied festzustellen sein“, sagte Liebl.
Krause wies darauf hin, dass KI im Internet für einen „digital amplifizierten Content-Tsunami“ sorgen werde. Der aber mache nicht nur neue Medienkompetenzen im Umgang mit ihr nötig, sondern sorge auch für eine eigene Ästhetik und schaffe neue kulturelle Werte. Als Beispiel nannte er den Meme-Trend „Italian Brainrot“, bei dem User seit Anfang des Jahres KI-generierte surreale Kreaturen mit italienisch klingenden Namen schaffen und über Social Media verbreiten. Hier werde qualitativ hochwertiger Content geschaffen.
Rebecca Ciesielski vom AI + Automation Lab beim Bayerischen Rundfunk, äußerte die Hoffnung, dass künftig verstärkt KI-Systeme genutzt werden können, um KI-generierte Inhalte als solche zu identifizieren. Gleichzeitig rief sie dazu auf, sich immer der wirtschaftlichen Interessen der Anbieter bewusst zu sein. Im Fall der romantischen Chats gehe es den KI-Firmen ja nicht darum, Menschen aus ihrer Einsamkeit zu verhelfen, sondern ihre Nutzung auf der Plattform möglichst lange aufrechtzuerhalten. Genau dieses Bewusstsein, bestätigte Till Krause, sei für AI Literacy wichtig: „Es ist unsere Aufgabe zu erklären, dass Sprachmodelle nicht verstehen, sondern auf Wahrscheinlichkeiten und der Zerlegung von Text in Tokens beruhen.“