KI und Fotografie in den Medien

K

Was kann gegen den Verlust der Verlässlichkeit unternommen werden?

Christoph Schütz, Fotograf und Medienwissenschaftler, Fribourg

Résumé: Les médias d’information ont pour mission de présenter des faits et des événements, de les synthétiser, de les placer dans leur contexte et de les commenter. Avec l’arrivée des outils de l’intelligence artificielle, qui produit textes, images et sons, la question de l’authenticité a pris une nouvelle dimension. L’auteur se concentre sur la problématique des images générées par l’IA. Selon lui, la perte de confiance touchant les photographies pourrait se révéler fatale aux médias d’information. Seuls une interdiction ou un renoncement volontaire aux contenus audio-visuels générés par l’IA, ou encore, en cas d’utilisation, une déclaration obligatoire, pourraient empêcher cette perte de confiance. L’auteur propose que l’octroi de subsides soit lié au respect de ces principes. Il estime aussi que le Conseil suisse de la presse et les éditeurs ont le devoir de prendre des mesures pour maintenir la crédibilité des médias d’information. 

Zusammenfassung: Informationsmedien zeichnen Tatsachen und Ereignisse auf, fassen sie zusammen, setzen sie in einen Kontext und kommentieren sie. Durch die Möglichkeit Texte, Bilder und Töne mittels künstlicher Intelligenz zu produzieren, ist nun ein Werkzeug in diese Verarbeitungskette eingetreten, das Fragen zur Authentizität aufwirft. Die fortschreitende Perfektionierung von ChatGPT und Konsorten kann dazu führen, dass „die Welt da draussen“ von KI-Systemen ebenfalls authentisch und damit glaubwürdig beschrieben werden kann. Doch wie sieht es bei KI-generierten Bildern aus? Dieser Problematik widmet sich der Autor eingehend. Der Vertrauensverlust in Fotografien wäre für Informationsmedien fatal und kann seines Erachtens nur durch ein Verbot oder freiwilligen Verzicht auf KI-generierte audiovisuelle Inhalte oder aber eine unübersehbare Deklaration von solchen Inhalten verhindert werden. Gemäss dem Autor sollte die Einhaltung dieser Vorgaben über die Vergabe von Medien-Fördergeldern entscheiden, und er sieht auch den Presserat und die Verleger in der Pflicht, etwas gegen den Verlust der Verlässlichkeit der Informationsmedien zu unternehmen.

I. Einleitung

1

Im Beitrag „Wie generative KI-Systeme Rechte nutzen“ hat Philip Kübler in medialex 6/2023 aufgezeigt, wie KI-Generatoren bei der Datenaggregation und teilweise auch der Verbreitung der generierten Inhalte das schweizerische Urheberrecht verletzen und unter welchen Umständen solche Inhalte selber unter den Schutz des Urheberrechts fallen können. Wörtlich schreibt er: „Maschinengenerierte Texte, Bilder, Audios und Videos werfen Fragen auf zur Transparenz der Herstellung und Quellentreue der Abbildung, zu Falschinformation und Manipulation, zu Überflutung und Ablenkung und zu einem versteckten Qualitätsverlust angesichts einer stets ansprechenden Gestaltung der Inhalte“. Diese Thematik soll in diesem Beitrag vertieft werden.

2

Diese Fragen betreffen zuallererst die Informationsmedien, weil diese ihre Existenzberechtigung und die Ansprüche auf staatliche Fördergelder genau aus Attributen wie „Transparenz“ und „Faktentreue“ herleiten. Sie betreffen aber auch die Politik, wie die Empörung um die KI-generierte Wahlwerbung der FDP (fotorealistisches KI-Bild von Klimaklebern) und der anschliessende Vorschlag zur Einführung eines KI-Ethikkodex für die politischen Parteien gezeigt hat. Es sind primär diese beiden Akteure, die über eine brancheninterne Selbstregulierung und/oder über gesetzliche Rahmenbedingungen dafür sorgen müssen, damit wir die KI-Geister, die schon hier sind, unter Kontrolle behalten können.

II. KI als neuer Akteur in der Medienproduktion

3

Informationsmedien agieren primär als Vermittler zwischen einer gewesenen Realität und einem Publikum. Ihr Rohstoff sind Tatsachen und Ereignisse, die von Medienschaffenden wahrgenommen, aufgezeichnet, zusammengefasst, verständlich formuliert, in einen Kontext gesetzt und auch kommentiert werden. Den Rezipienten ist diese Verarbeitungskette bewusst und sie wollen sich darauf verlassen können, dass auch bei einer noch so boulevardesken Aufbereitung und Präsentation der Inhalte diese faktenbasiert sind. Mit dem Presserat verfügen die Medienproduzenten über eine brancheninterne Instanz, die mit ihren Richtlinien und den publizierten Stellungnahmen dafür sorgen sollte, dass die Informationsmedien diesem Anspruch des Publikums nach Faktentreue gerecht werden.

4

Durch die Möglichkeit Texte, Bilder und Töne mittels künstlicher Intelligenz zu produzieren, ist nun ein Werkzeug in diese Verarbeitungskette eingetreten, das gemäss dem aktuellen Verständnis, was Authentizität bedeutet, vermutlich in einem Informationsmedium nichts verloren hat. Journalismus – auch ein Spielbericht eines 4. Liga-Fussballspiels – basierte bisher auf „eyewitness“ und anschliessender Verarbeitung des Gesehenen in einen Text. Ein KI-generierter Spielbericht desselben 4. Liga-Spiels liefert den Sportinteressierten dank Eckdaten des Spiels einen aufgrund von Algorithmen konstruierten Text, der mit einer sehr hohen Wahrscheinlichkeit dem Geschehenen auch entspricht. Es mag sogar sein, dass solche KI-generierte Matchberichte statistisch gesehen weniger inhaltliche Fehler aufweisen als von Menschen geschriebene. Dennoch verlieren solche „errechneten Texte“ an Glaubwürdigkeit, weil sie von einer Maschine und nicht einem Menschen produziert worden sind. Es ist gut möglich, dass wir uns diesbezüglich in einer Übergangsphase befinden und schon die nächste Generation KI-generierten Texten dieselbe Authentizität attestiert wie von Menschen geschriebenen. Denn Glaubwürdigkeit als solche ist nicht zwingend an Menschen gebunden, so kann die fortschreitende Perfektionierung von ChatGPT und Konsorten tatsächlich dazu führen, dass „die Welt da draussen“ von KI-Systemen mindestens so authentisch und damit glaubwürdig beschrieben werden kann, wie dies heute noch vorwiegend Journalistinnen und Journalisten tun. Doch wie sieht es aus bei KI-generierten Bildern und Tönen?

III. Fotografie und Faktizität

5

Gerade weil den Medienkonsumierenden bewusst ist, dass geschriebene Informationen immer zuerst durch einen Kopf und eine Hand eines Menschen mit seiner subjektiven Art, die Dinge zu sehen und zu vermitteln, den Weg in die Medien finden, setzen die Medien zur Steigerung ihrer Glaubwürdigkeit und zu Beweiszwecken, aber auch zur Steigerung der Attraktivität des Medienkonsums, auf Fotografien, Videos und Tonaufnahmen.

6

Im Unterschied zu Texten haben diese aufzeichnenden Medien bezüglich ihrer Authentizität eine grundlegend andere Qualität: Eine Fotografie bleibt immer und trotz der subjektiven Wahl von Bildausschnitt, Moment der Aufnahme und Kameraeinstellungen ein physikalisch generiertes Abbild von etwas Gewesenem. Während ein geschriebener Text Realität beschreibt und diese Beschreibung zu 100% (durch Menschen oder KI) erschaffen wird, ist in einer Fotografie die Realität als ihr Abbild immer noch repräsentiert. Unser Wissen um dieses imaginäre Band zwischen einer Realität und ihrem Abbild, und die damit inhärente Faktizität jeder Fotografie, begründet bis heute die grosse Faszination für dieses Medium. Die Millionen von selfies, die täglich geschossen werden, dienen letztlich als Beweis, dass man auch am abgebildeten Ort gewesen ist. Weshalb sammeln und schätzen all die Gedächtnisinstitutionen rund um den Erdball Fotografien wie archäologische Fundstücke, wenn nicht um deren Faktizität Willen? Es sind also nicht die (zu) lange dem Medium Fotografie angehefteten Attribute Objektivität und Wahrheit, die dessen inhärenten Wert begründen, sondern dessen Faktizität. Dasselbe gilt natürlich ebenso für Ton- und Videoaufzeichnungen.

7

Wenn Informationsmedien nun beginnen, mit KI-generierten Bildern ihre Beiträge zu illustrieren, droht unser Glaube an Fotografien als Repräsentanten von etwas Gewesenem wie ein Kartenhaus in sich zusammenzufallen. Das ist nicht der Fehler der KI-Generatoren oder ihren Entwicklern, es ist vielmehr unsere Unfähigkeit, echte Fotografien von künstlich erzeugten Bildern zu unterscheiden, weil die KI-generierten mittlerweile exakt wie Fotografien aussehen. Das ist auch nicht weiter erstaunlich, denn der Rohstoff, an denen diese Bildgeneratoren trainiert werden, sind Fotografien. Allerdings wird dieser Rohstoff nun rasch durch KI-Bilder verwässert werden, denn auch die Bildgeneratoren können nicht wissen, ob sie sich noch auf authentisches Material oder nur noch einen digitalen Pixelmix stützen. Hinzu kommt die Problematik, dass – wiederum aufgrund des Rohstoffs, der zu einem überproportionalen Teil aus Bildern aus der westlichen Welt besteht – die bereits bestehende „visuelle Kolonialisierung“ noch verstärkt wird. Das bedeutet zum Beispiel konkret: Der in Burundi lebende Grafiker, der für einen Kunden ein KI-Bild einer Kücheneinrichtung generieren soll, wird Mühe haben, ein Bild hinzukriegen, das burundischen Kücheneinrichtungen ähnlich sieht, weil den KI-Generatoren zu wenig entsprechendes Rohmaterial zur Verfügung steht.

IV. Der Verlust der Verlässlichkeit

8

Indem also die fotografischen Wesensmerkmale auf Bilder übertragen werden, die – im Unterschied zu echten Fotografien – keinen physikalischen Zusammenhang mehr mit etwas real Existierendem haben, rezipieren wir solche, Fotografien gleichende Bilder fatalerweise und aus Gewohnheit weiterhin als Abbilder der realen Welt. Gleichzeitig wächst im Wissen um das fotografietypische Aussehen von KI-Bildern die Unsicherheit, ob es sich bei wie Fotografien aussehenden Bildern nun um echte Fotografien oder um generierte Bilder handelt; entsprechend werden wir auch den Glauben an die Faktizität echter Fotografien verlieren. Rund 200 Jahre nach der Erfindung der Fotografie, die einen Durchbruch in Bezug auf die faktentreue Repräsentation der Welt bedeutete, wird dieses Vertrauen mit dem Auftauchen von KI-generierten Bildern aktuell gerade zerstört, es verlässt uns die Verlässlichkeit in das Medium Fotografie. Die bereits stark erodierte Glaubwürdigkeit in unsere Informationsmedien darf durch dieses neue Phänomen nicht noch weiter Schaden nehmen. Der Vertrauensverlust in Fotografien ist für Informationsmedien fatal und kann vermutlich nur auf zwei Arten noch verhindert werden: Ein Verbot oder ein freiwilliger Verzicht auf KI-generierte audiovisuelle Inhalte in Informationsmedien oder aber eine unübersehbare Deklaration von solchen Inhalten.

V. Technische Lösungen kaum hilfreich

9

In Anbetracht dieser in den USA schon länger diskutierten Problematik hat unter anderem die New York Times zusammen mit Adobe und Twitter die Content Authenticity Initiative initiiert: Dank in die Daten von digitalen Fotografien gespeicherten Metadaten soll deren Entstehungs- und Bearbeitungshistorie nachvollziehbar bleiben. So begrüssenswert dieser technische Ansatz ist, wird er die Probleme aber nur teilweise lösen: Erstens beruht das Einschreiben dieser Metadaten auf Freiwilligkeit und zweitens lassen sich über den einfachen Umweg von screenshots solche Metadaten beliebig entfernen und hinzufügen und damit der Ursprung und die Bearbeitungshistorie von Bildern fälschen. Konkret könnte also durch das Abfotografieren von hochaufgelösten KI-Bildern diesen ein vermeintliches Echtheitszertifikat implementiert werden.

10

Weil sich über technische Lösungen Vieles machen aber genau so Vieles aushebeln lässt, müssen wir uns vermutlich in unser digitalisierten und virtuellen Welt auf Werte aus einer anderen Zeit zurückbesinnen: Das Vertrauen in jene Personen und Institutionen, die fotografische Bilder erstellen und diese publizieren. Vertrauen schafft man durch Transparenz und in diesem Fall durch Deklaration. Jene Tageszeitung, die auf ihrem Titelbanner damit wirbt, auf KI-generierte audiovisuelle Inhalt zu verzichten und deren Redaktion nur mit Medienschaffenden zusammenzuarbeitet, die vertraglich erklärt haben, bei der Medienproduktion ihrerseits auf KI-Technologie zu verzichten, könnte ihre Glaubwürdigkeit und damit ihren journalistischen Marktwert markant steigern.

VI. KI-Verzicht an Medienförderung knüpfen

11

Weil die Produktion von KI-generierten Inhalten in vielen Fällen jedoch billiger ist als zum Beispiel einen Fotografen vor Ort zu schicken, sollten jene Medien, die KI-generierten audiovisuellen Inhalten eine Absage erteilen, hierfür eine finanzielle Teilkompensation erhalten (Teilkompensation deshalb, weil langfristig authentischer Journalismus hoffentlich auch höhere Auflagen garantiert). Die in der Schweiz aktuell laufende Diskussion zur Medienförderung bietet die ideale Gelegenheit, einen Verzicht auf KI-generierte, audiovisuelle Inhalte als eines der journalistischen Qualitätskriterien aufzunehmen, die über die Vergabe von Fördergeldern entscheiden. Als zweitbeste Lösung, nach einem generellen Verzicht, böte sich die unübersehbare Deklaration von KI-generierten Inhalten an. Als Modell könnte hier ein im Sommer 2022 in Norwegen in Kraft getretenes Gesetz dienen: Influencer und andere Werbeschaffende müssen Fotografien von Menschen, die inhaltlich verändert worden sind, in der oberen linken Ecke mit einem Logo kennzeichnen, das satte 7% der Bildfläche belegt und damit unübersehbar ist. Die Motivation zur Einführung dieses Gesetzes war jedoch eine andere: Insbesondere das Selbstwertgefühl von jungen Frauen, deren Aussehen nicht den manipulierten Körperbildern in der Werbung entspricht, sollte geschützt werden. In der Schweiz hat sich letzten Herbst Nationalrätin Sandra Locher Benguerel mittels Motion für eine ebensolche Kennzeichnungspflicht eingesetzt. Auch wenn es hier um psychosoziale Probleme mit dem Selbstbildnis geht, liegt das Grundübel auch hier in der Diskrepanz zwischen den für wahr genommenen und den dahinterliegenden, jedoch gefakten Bildern.

12

Verfolgt man die Äusserungen der hiesigen Politik und Verwaltung zur Kontrolle der künstlichen Intelligenz, stehen die Zeichen auf „zuerst mal schauen, was die EU macht“ und „bitte keine Innovation verhindern“. Das EU-Parlament hat sich nun im Juni immerhin schon auf einen Gesetzesentwurf für die Regulierung von KI geeinigt. In der Schweiz scheint der Wille zu einem Gesetz, das den Einsatz von KI-generierten audiovisuellen Inhalten in den Informationsmedien verbieten würde, aktuell ausser Reichweite. Gleichwohl hat die Entrüstung vieler Politiker auf das fotorealistische, jedoch KI-generierte FDP-Wahlplakat mit den Klimaklebern aufgezeigt, dass diese Debatte noch an Fahrt aufnehmen könnte. Viele Menschen und damit auch die PolitikerInnen beginnen erst durch solche Beispiele zu begreifen, welche Gefahren auf uns zukommen, wenn wir nicht mehr wissen, ob es sich bei Bildern, Filmen und Radiointerviews um künstlich generiertes oder authentisches Material handelt.

VII. Die (mögliche) Rolle des Presserates

13

Als weiteren Akteur, könnte man sich den Schweizer Presserat vorstellen. In dessen Richtlinien steht zu lesen, dass fiktive Sequenzen und Bildmontagen „klar als solche zu kennzeichnen“ seien. Eine explizite Nennung von KI-generierten Inhalten, die ebenso klar als solche zu kennzeichnen wären, wäre der nächste konsequente Schritt. Doch vom Presserat ist neben einer Absichtserklärung, dass er einheitliche geltende Richtlinien erarbeiten möchte, bisher nichts Konkretes zu vernehmen. Hinzu kommt, dass es der Presserat als von den Verlegern finanziell abhängiges und überwiegend von den angestellten JournalistInnen dieser Verlage dotiertes Gremium oft nicht schafft, dass sich die hehren Ziele seiner Richtlinien nachhaltig in der Medienlandschaft niederschlagen. Die jährlich zunehmende Verwässerung zwischen redaktionellem Inhalt und Werbung ist nur ein Beispiel: Trotz etlicher diesbezüglicher Beschwerden an den Presserat und dessen Stellungnahmen für diesbezügliche Transparenz überbieten sich die Verleger mit immer neuen Tricks, ihre als journalistisch getarnte Werbung ans Publikum zu bringen. Beim Presserat und den dahinterstehenden Verlegern müsste also zuerst die ihren Publikationen zugrundeliegende Haltung in eine Richtung justiert werden, die der journalistischen Berichterstattung und dem öffentlichen Diskurs als Bedingung für die Förderung und den Erhalt der Demokratie oberste Priorität einräumt. Unter dieser Prämisse könnte der Presserat mit einer Deklarationspflicht für KI-generierte Inhalte einen wichtigen Beitrag leisten. Damit sich Verleger und Medienschaffende wieder vermehrt um ihre Rolle als vierte Gewalt kümmern können – wenn sie das denn wirklich wollen -, braucht es aber auch die Politik, die dies mit einer an Qualitätskriterien geknüpften Subventionspolitik fördert.

VIII. KI-generierte Inhalte und Medienförderung

14

Die vorne behandelte Problematik von KI-generierten Inhalten und die Medienförderung haben mehr miteinander zu tun, als es auf den ersten Blick den Anschein macht: Wäre genug Geld für Journalistinnen und Journalisten da, die sich vor Ort informieren, mit den Beteiligten sprechen und aus diesen aus erster Hand gewonnenen Erkenntnissen berichterstatten könnten, anstatt unter Zeitdruck aus ergoogelten Quellen und Bildern einen Beitrag zu destillieren, wäre die ganze Thematik der KI-generierten Bilder vielleicht dort geblieben, wo sie problemloser ausgelebt werden kann: in der Kreativküche der Kunst und der Werbung, wo dieser digitale Malkasten faszinierende Möglichkeiten eröffnet, zwar auch Schaden anrichtet, aber wo die Faktizität im Gegensatz zu den Informationsmedien eben noch nie das Kernkriterium dargestellt hat.

Creative Commons Lizenzvertrag
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.
image_print

Kommentar schreiben

13 + seventeen =

Über uns

Medialex ist die schweizerische Fachzeitschrift für Medien- und Kommunikationsrecht. Sie erscheint als Newsletter im Monatsrhythmus (10x jährlich), open access, und enthält Untersuchungen und Brennpunkte zu medienrechtlichen Themen, aktuelle Urteile mit Anmerkungen, Hinweise auf neue medien- und kommunikationsrechtliche Urteile, UBI-Entscheide und Presseratsstellungnahmen sowie auf neue wissenschaftliche Publikationen und Entwicklungen in der Rechtsetzung.

Vernetzen