KI im Journalismus: Das Chaos wird geregelt

Wolf im Schafspelz. Ueber einen Hund ist ein Schafsfell gelegt.

Künstliche Intelligenz in der Kommunikation: Es ist nichts, wie es scheint

Frei und frank heraus: Ich bin kein Fan von KI im Journalismus und in den sozialen Medien. Wobei – in den sozialen Medien wie X, Facebook, Telegram und anderen Propaganda-Schleudern ist es egal. Die sind sowieso nicht mehr zu retten. Ob KI-Lüge oder Human-Lüge, es bleibt Info-Schmutz.

Vor allem bei KI-Bildern stellen sich mir die Nackenhaare auf. Da wir Augenmenschen sind, geht die Botschaft von Stand- oder Bewegtbild blitzschnell in unser Gehirn. Abwehr zwecklos. Da sitzt es dann wie festgenagelt. Die Bildunterschrift im 6-Punkt-Font hat nicht den Hauch einer Chance, das Gesehene zu relativieren: „Dieses Foto wurde mit Hilfe von KI erzeugt.“ Ach so, na dann, vergesse ich die Kinderleiche gleich mal wieder. Das geht so nicht.

Die „aktuelle“ liefert den Point of no Return

Ein bisserl anders ist das bei Texten, die den Vermerk tragen „mit KI-Unterstützung verfasst“. Zwar traue ich auch ihnen nicht über den Weg, aber ich kann mit den Inhalten rational umgehen, sie packen mich nicht so emotional am Kragen wie Bilder. Das dachte ich jedenfalls. Dann erschien das KI-Interview mit Michael Schumacher in „die aktuelle“ am 15. April dieses Jahres. Das war mein persönliches Fukushima – der point of no return in meiner Meinung zu KI im Journalismus. Dass die Chefredakteurin Anne Hoffmann ob ihrer ehrverletzenden Geschmacklosigkeit stante pede aus dem Verlag flog, war eher eine Selbstverständlichkeit als Besänftigung. No return: KI hat im Journalismus nichts zu suchen.

Indirekt betrifft das auch Bilddatenbanken wie Adobe Stock und andere. Laut Meedia vom 09.11.2023 bieten Foto-Datenbanken KI-generierte und manipulierte Fotos zum Gaza-Krieg an. Frank Puscher von Meedia meint dazu: „Zwar sind die Bilder klar gekennzeichnet, aber in der Eile kann es Redaktionen passieren, dass sie diese Bilder für „echt“ halten und sie bei den eigenen Artikeln veröffentlichen, ohne auf „Generative AI“ als Quelle hinzuweisen.“
Wie wäre es denn, wenn Foto-Anbieter sich ein Beispiel an Supermärkten nehmen würden, in denen die Gemüseabteilung in Bio und Nicht-Bio getrennt ist. Sehr transparent. Ginge online noch viel einfacher, nicht wahr?

Keine Ahnung

Bis zu diesem Funke-Skandal, der in der Liga vom „stern“-Heidemann und „Spiegel“-Relotius spielt, war ich indifferent. Ist sie gut oder schlecht? Keine Ahnung. Der Druck, eine Meinung zu haben, war groß. Die Familie fragte, Freundinnen und Freunde wollten eine Einschätzung von einer Betroffenen. Ich hatte aber keine. Auf meinem Silbertablett lag nix. Die Marketing-Fachpresse jubelte über die enormen, ja, die exorbitanten Chancen durch ChatGPT, die gleiche Marketing-Fachpresse raunte düster, dass alle Kommunikationsprofis hoffnungslos lost seien, weil Algorithmen besser und viel schneller schrieben als selbst die Epigonen von Wolf Schneider. Als der wiederum, die Lichtgestalt aller professionellen Schreiberlinge, von der „Reporterfabrik“ als KI herausgebracht wurde, war ich „wie Flasche leer!

Wissen und können – völlig autark

Auf die Schockstarre nach der Schneider-KI türmten sich meine Selbstzweifel bis unter die Decke. Bin ich noch in dieser Welt? Wo bleibt meine Euphorie über die KI im Journalismus? Ich warte auf etwas Begeisterung wie Estragon auf Godot. Mir schwant Schlimmes: Vielleicht bin ich doch ein spießiger Konservativer? Meine Kinder wissen das schon längst: Sollten sie mal gefragt werden, was ihnen von ihrer Mutter am meisten im Gedächtnis geblieben ist, beten sie zwei Sätze daher: Erstens: „Im Deutschen erfordert das kleine Wörtchen ‚zu‘ immer ein ‚wofür‘.“ Zweitens: „Nicht googeln. Wissen.“ Natürlich googelt der Mensch, um schlauer zu werden. Manchmal nur für einen Moment. In einer Gesprächssituation aber wäre es schon recht fein, ganz ohne Smartphone etwas zu wissen.

Human-Intelligenz auf dem Grabbeltisch für KI

Lässt sich diese Devise auch auf den Journalismus übertragen? Jein. Die Umstände, unter denen Journalistinnen und Journalisten wahrheits- und wasserfeste Infos bieten sollen, sind gelinde gesagt ungünstig. Reichte es einst aus, mit einem Anruf eine Information von der Quelle selbst zu verifizieren, nutzen Faktenchecker heute Forensik-Software, um zum Beispiel getürkte Videos und Bilder zu entlarven. Das folgende Beispiel hat sich bereits einen Platz in den Lehrbüchern für Journalistenausbildung gesichert: Am 17. Oktober sind internationale Leitmedien einer durch Videomaterial ausgelösten Falschmeldung aufgesessen. Kolportiert wurde, dass, laut palästinensischem Gesundheitsministerium, Israel im Gaza-Streifen ein Krankenhaus aus der Luft angegriffen habe. 500 Menschen seien getötet worden. Nach der Intervention Israels nahmen Redaktionen wie die BBC und spezialisierte Faktenprüfer wie Bellingcat die Schaufel in die Hand und gruben tiefer. Sehr tief und gründlich. Und was sie fanden, war eine Lüge.

Teuflisches Chaos

Lüge und Wahrheit sind so ineinander verheddert wie Lichterketten, die man vom falschen Ende her vom Christbaum zupft. Neben dem Baum grinst Mephisto: „Da steh‘ ich schon, des Chaos vielgeliebter Sohn!“ Das Chaos von Falsch und Richtig ist für Bürgerinnen und Bürger genau so prekär wie für Publizistinnen und Publizisten. Die richtigen Schlussfolgerungen auf der Grundlage falscher Informationen zu treffen, kann in einer irreversiblen Katastrophe münden.

Alle Forderungen liegen auf dem Tisch

Journalistinnen und Journalisten wissen das nur zu gut. Deshalb gibt es seit dem 10. November 2023 die „Paris-Charta zu KI“. (Sorry, hier muss ich leider spoilern: Diese Charta orientiert sich sehr an der EU-Verordnung zur KI, die es bereits seit Juni 2023 gibt und die bis Jahresende in nationales Recht umgesetzt werden soll. Betonung liegt auf soll. Dazu mehr weiter unten.) Dieses Journalismus-Gesetzbuch definiert zehn Leitlinien und Regeln zur Rolle der KI im Journalismus. Damit sind schon mal die Forderungen formuliert. Die Initiatorin der Charta ist unter anderem die internationale Menschenrechtsorganisation „Reporter ohne Grenzen“ mit Sitz in Paris. Wie die Ziele und Grundsätze zum Schutz der Welt vor Lug und Trug sowie der Autorenschaft in der Praxis wirklich umgesetzt werden können, wird die Zukunft zeigen. Zurzeit stehen Forderungen auf dem Papier, bei denen mir die organisatorisch-strukturelle Realisierung noch nicht klar ist. Noch nicht einmal ansatzweise. Hier nur einige Beispiele aus der Charta zur KI, die noch ausbuchstabiert werden müssen:

  • Die Redaktionen müssen Ziel und Zweck definieren, wofür KI-Systeme genutzt werden sollen. Die Auswirkungen und die Einhaltung von Nutzungsbedingungen sollen überwacht werden.
  • Vor dem Einsatz von KI-Tools sollen sie daraufhin geprüft werden, ob sie die Grundwerte der journalistischen Ethik einhalten.
  • Für die Verbreitung von KI-generierten Inhalten sind die Medienunternehmen verantwortlich. Sie müssen den Einsatz von KI transparent darlegen, zum Beispiel in einem öffentlichen Verzeichnis.
  • Medienunternehmen publizieren nur die Inhalte, von denen bewiesen ist, aus welcher Quelle sie stammen und dass sie authentisch sind.
  • Medien, Journalistinnen und Journalisten ziehen jederzeit eine klare Trennlinie zwischen echten und künstlichen Inhalten. Sie sollten das authentische Material bevorzugen.
  • Rezipienten sollten die Möglichkeit haben, zu entscheiden, ob sie echte oder KI-Inhalte konsumieren möchten. Entsprechende Filter sollen aktiviert oder deaktiviert werden können.

Und schließlich kommt die Charta im zehnten von zehn Punkten auch noch auf das Urheberrecht zu sprechen. Gefordert wird, dass KI-Tool-Anbieter offenlegen müssen, welche Inhalte sie von welcher Autorin oder Autor nutzen und das vergüten. Die KI-Anbieter müssen also nach Vorstellung der Charta eine detaillierte Liste der Inhalte führen, die sie für die Trainings der KI genutzt haben oder noch nutzen werden.

Länder unter Regulierungsdruck: USA

Geht es im Journalismus um Wahrhaftigkeit und Honorare, haben Staatenlenker mit KI ganz andere Probleme: der Schutz der nationalen Sicherheit. In den USA hat die Biden-Regierung jüngst eine Verordnung für die KI-Regulierung vorgelegt. Der Titel lautet „Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence“ und stammt vom 30. Oktober 2023. Dass die USA schon jetzt fertig sind mit dem Denken und sogar mit der Problemlösung, ist erstaunlich, denn „the land of the free“ ist nicht dafür berühmt, dass der Staat gerne die Wirtschaft reguliert. Doch die US-Regierung sieht durch Künstliche Intelligenz Gefahr im Verzug und erließ diese Richtlinie. 15 führende High-Tech-Firmen hätten sich freiwillig verpflichtet, sie zu befolgen. Ziel der Verordnung ist es, KI-Tools, die potenziell die Sicherheit der USA beeinträchtigen könnten, noch vor dem Einsatz und einer Markteinführung von staatlicher Stelle einer strengen Prüfung zu unterziehen. Den USA geht es dabei aber vor allem um den Schutz kritischer Infrastruktur und den KI-Einsatz bei Militär und Geheimdiensten.

Schutz von Staat und Bevölkerung

Auch die Gefahr durch Falschinformationen thematisiert die Verordnung: Bürgerinnen und Bürger sollen vor Betrug und Täuschung durch KI-Inhalte geschützt werden. Dazu wird aber das US-Handelsministerium erst noch Leitlinien entwickeln, mit deren Hilfe KI-generierte Inhalte identifiziert und durch ein Wasserzeichen markiert werden. Auf der anderen Seite werden Bundesbehörden ihrerseits ihre Kommunikation als authentisch kenntlich machen. Die Biden-Regierung hofft, dass ihre Maßnahmen Beispiele für die Privatwirtschaft und für andere Regierungen sein werden.

US-Datenschutzgesetz soll kommen

Die Verordnung geht auch auf den Schutz der Privatsphäre der Bevölkerung ein. Sie sieht die Gefahr, dass durch KI persönliche Daten extrahiert werden, Personen identifiziert und diese Erkenntnisse benutzt werden. Dieses Risiko sei groß, da Unternehmen diese Daten dazu verwenden, um die KI-Systeme zu trainieren. Biden fordert daher den Kongress auf, eine überparteiliche Regelung zum Schutz aller Amerikaner, aber insbesondere von Kindern zu erlassen: „Irresponsible uses of AI can lead to and deepen discrimination, bias, and other abuses in justice, healthcare, and housing.“ Da ist was dran.

Urheberrechte werden jetzt für die Zukunft gesichert

In den USA hat die Schauspielergewerkschaft nach monatelangem Streik nicht nur mehr Gehalt ausgehandelt. Ein Meilenstein für die zukünftige Arbeit der Künstlerinnen und Künstler wurde erzielt. Sie sollen nicht von KI ausgebeutet werden. Die „Screen Actors Guild-American Federation of Television and Radio Artists“ hat, so deren Präsidentin, durch diese Vereinbarung mit den größten Film- und Fernsehstudios die existenziellen Rechte ihrer Mitglieder gesichert.
Jede Darstellerin und jeder Darsteller, ob prominent oder Statist, muss erst zustimmen, wenn von ihr oder ihm digital bearbeitete Abbilder erstellt werden sollen. Für diese Zustimmung muss genau angegeben werden, wofür die KI-Kopie benutzt werden soll. Je nach Umfang und Einsatzzweck des Abbilds werden dann Honorare für die Künstlerin oder den Künstler fällig. Die Regelung geht über den visuellen Bereich hinaus und deckt auch die Rechte von Drehbuch-Autorinnen und Autoren ab. Andreas Donath von Golem.de fasst zusammen: „Zu den Schutzmaßnahmen gehört auch die Verpflichtung zur Offenlegung aller von KI geschriebenen oder umgeschriebenen Inhalte gegenüber den Autoren.“

Die EU mit den weltweit ersten KI-Regelungen

Werfen wir nun einen Blick auf die Europäische Union. Sie hat nach 18 Monaten Arbeit bereits am 14. Juni 2023 eine „Allgemeine Ausrichtung zur Europäischen Verordnung zur Festlegung harmonisierter Vorschriften für KI“ beschlossen. Bis Ende des Jahres 2023 soll klar sein, wie die KI-Verordnung der EU in den jeweiligen Ländern in die Praxis umgesetzt wird.

Hochrisiko-KI: alles, was Menschen kontrolliert

Anders als in den USA liegt der Ansatz der EU darin, KI zuerst nach ihren Risiken zu klassifizieren. Es gibt vier Schubladen: risikoarm, begrenzt riskant, riskant und verboten. Wie sind diese Adjektive definiert? Geregelt ist heute schon, was völlig verboten ist: Alles, was Menschen unterdrückt oder kontrollieren kann, wie zum Beispiel die Erfassung und Bewertung des Verhaltens von Menschen, von Emotionen sowie die flächendeckende Überwachung mit biometrischen Echtzeitdaten im öffentlichen Raum, wie wir es aus China kennen. (Unter biometrischen Echtzeitdaten versteht man die Aufzeichnung von allen äußeren Merkmalen eines Menschen: von der Körpergröße und Haarfarbe über Statur und Gesicht bis hin zur Augenfarbe.) Ähnlich wie in den USA, werden alle Hochrisiko-KI-Systeme vor ihrem Einsatz oder der Markteinführung geprüft und bewertet.

Das ist eine glasklare Regelung, wären da nicht die Strafverfolgungsbehörden, die die Hand heben und sich Ausnahmeregelungen im Sinne der Kriminalitätsbewältigung und -Prävention wünschen. Dagegen sträuben sich wiederum diejenigen, die die Angst umtreibt, derlei Ausnahmen würden Tür und Tor für den behördlichen Missbrauch öffnen.

So sollen wir KI-Inhalte sofort erkennen

Und wie sieht es mit dem informationellen Schutz aus? Wie werden Bürgerinnen und Bürger in Zukunft erfahren, was Wahrheit ist und was von KI produziert wurde? Die sogenannte „Generative KI“ wie ChatGPT muss sich nach der Vorstellung der EU einer Transparenzprüfung unterziehen. Theoretisch soll das so laufen:

„Generative Foundation-Modelle wie ChatGPT müssten zusätzliche Transparenzanforderungen erfüllen:

  • Offenlegung, dass der Inhalt durch KI generiert wurde;
  • Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
  • Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.“

Die Ziele der EU sind gut. Software-Anbieter haben bereits reagiert. ChatGPT zum Beispiel liefert zum erstellten Text keine Quellenangaben. Eine Alternative ist Perplexity.ai. Dieses englisch-sprachige Tool listet auch die Quellen auf, die der Algorithmus für seinen Text benutzt hat. Perplexity wurde im August 2022 von Denis Yarats, Aravind Srinivas, Johnny Ho und Andy Konwinski gegründet. Derlei KI-Systeme nehmen sozusagen die Regulierung schon vorweg, wie die EU sie sich wünscht:

„KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen, die es den Nutzern ermöglichen, fundierte Entscheidungen zu treffen. Nach der Interaktion mit den Anwendungen kann der Nutzer dann entscheiden, ob er sie weiterverwenden möchte. Die Nutzer sollten darauf aufmerksam gemacht werden, wenn sie mit KI interagieren. Dies gilt auch für KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren (zum Beispiel Deepfakes).“

Regulierung von KI in Deutschland

Am gleichen Tag, als das US-Dekret veröffentlicht wurde, traten die Wirtschaftsminister von Deutschland, Italien und Frankreich nach ihrem Trio-Gespräch vor die Presse. Laut Handelsblatt vom 30.10.23 hat Bundeswirtschaftsminister Robert Habeck gesagt, dass Europa der erste Wirtschaftsraum sein werde, der KI reguliert. Was haben die drei stärksten Volkswirtschaften der EU vor? Das Ziel klingt gut: „Es muss schnell eine Einigung geben, sie muss innovationsfreundlich und bürokratiearm sein.“

Die EU hat mit ihrer Verordnung schon jede Menge vorgelegt. Das Gelände ist vermessen, der Grundriss klar. Was jetzt noch folgen muss, sind bürokratiearme Leitplanken, die die Regierung in den Boden pflocken muss, sind Schilder und Ampeln, die Ordnung in das Chaos bringen. Sie muss Autorinnen und Autoren ebenso helfen wie den Rezipienten medialer Inhalte.

Wie wird die Praxis? Zwischen Hoffen und Bangen

Zu hoffen bleibt, dass unsere Medienunternehmen diesen Zug nicht genauso verpennen wie sie den Online-frisst-Print-Zug verpennt haben. Zugucken und hoffen, dass es schon nicht so schlimm werden wird, diese Kaninchen-Schlange-Taktik hat damals nicht geholfen und verfängt auch heute bei den Hyper-Turbo-IT-Firmen nicht, mit denen es die Welt zu tun hat. Insofern bin ich auf unsere ansonsten ach so träge EU schon ein wenig stolz – und das überrascht mich selbst am meisten. Ich bleibe zuversichtlich und werde, allein schon aus purem Eigeninteresse, die KI im Journalismus verfolgen.

1 Antwort
  1. Avatar
    Sandra says:

    Die Zukunft der Nachrichtenwelt scheint wirklich aufregend zu werden. Eure kreative Herangehensweise und die klaren Einblicke haben den Artikel zu einem äußerst interessanten Leseerlebnis gemacht.
    Beste Grüße,
    Sandra

Dein Kommentar

Want to join the discussion?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

I accept that my given data and my IP address is sent to a server in the USA only for the purpose of spam prevention through the Akismet program.More information on Akismet and GDPR.