press
press
Bildquelle: Bank Phrom, Lizenz

Welche Fragen wirft KI-erzeugter Qualitätsjournalismus auf?

Eine gesamtgesellschaftliche Einschätzung der Verwendung von Künstlicher Intelligenz und ihre Folgen anhand eines KI-basierten Beispiels.

Im Folgenden berichten wir über die Generierung eines Artikels durch künstliche Intelligenz am thematischen Beispiel des Messengers Smoke und beleuchten die dabei entstehenden Fragestellungen bei der Nutzung dieser relativ neuen Technologie künstlicher Intelligenz zur (teil-)autonomen Texterstellung durch Maschinen. Ein Beitrag von Robert Strang und Joachim Feuerkohl.

Dieser folgende Beitrag wurde vollständig ohne KI von menschlicher Hand bzw. durch menschliches Gehirn geschrieben. Er berichtet über den Prozess der KI-Generierung eines Artikels über den Messenger Smoke, der komplett mit künstlicher Intelligenz erzeugt wurde. Und dies auf Basis von nur einer Handvoll an vorgegebenen Online-Referenzen.

KI-Generierung eines Beispielartikels: Zum Thema des McEliece-Messaging

Der Smoke Crypto Chat Messenger hat im Web noch nicht allzu viele Referenzen bzw. ausgearbeitete Artikel. Die relevanten Artikel und Seiten kann man an einer Hand abzählen. Die Voraussetzungen sind ideal, um festzustellen, wie eine Künstliche Intelligenz nicht nur Recherche betreibt, sondern auf Basis der Recherchen oder ggf. vorgegebener Hinweise auch einen neuen Artikel dazu logisch aufbaut und möglicherweise sogar fachlich korrekt verfasst.

Ist die Prozess- und Ergebnis-Qualität der texterzeugenden Maschinen mit Künstlicher Intelligenz heute schon fehlerfrei?

Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI, Artificial Intelligence) umfasst Anstrengungen, deren Ziel es ist, Maschinen intelligent zu machen. Dazu gehört die Fähigkeit von Maschinen, Eindrücke wahrzunehmen und darauf zu reagieren, Informationen aufzunehmen, zu verarbeiten und als Wissen zu speichern, Sprache zu verstehen und Texte zu erzeugen, um damit Probleme zu lösen und Ziele zu erreichen.

Während vor wenigen Monaten eine KI noch auf Ihren eigenen Daten-Bestand bezogen war, kann man inzwischen Suchergebnisse beispielsweise von Google und Bing oder auch die Inhalte der Wikipedia bei der Texterstellung einbeziehen. Mit nur wenigen thematischen Vorgaben durch Stichworte können die von einem Suchmaschinen-Algorithmus hoch-gerankten Webseiten und Wikipedia-Artikel für eine KI ausgewählt werden.

Smoke Crypto Chat

Der Google-Algorithmus liefert in unserem Beispiel des McEliece-Messagings diese relevanten Referenzen innerhalb seiner Top-10 Suchergebnisse. Wir haben uns entschieden, die Künstliche Intelligenz nicht mit den Google-Ergebnissen zu ergänzen, sondern mit vier uns bekannten, selbst recherchierten URLs, die über diese neue und innovative Art des kryptographischen Messagings mit dem McEliece-Algorithmus auf Basis des Echo-Protokolls berichten. So wurden die wenigen, ausgewählten URLs in einer KI referenziert und die KI gefragt, einen Artikel zu dem Thema „McEliece-Messaging mit dem Smoke Crypto Chat Messenger“ zu schreiben.

Ob die KI zusätzlich zu diesen vier genannten Referenzen noch ihre eigene interne Daten-Basis verwendet hat oder sich doch weitere URLs zu diesem Kontext aus anderen URL-Suchmaschinen erschlossen und genutzt hat bzw. weitere Content-Lieferanten einbezogen hat, ist unbekannt.

Da die textlichen KI-Anbieter derzeit noch in einer Phase der Markt-Eroberung sind, nennen wir die KI bzw. dessen Interface nicht, sondern lediglich, dass der Smoke-Artikel vollständig KI-generiert wurde, um die Technologie und die Notwendigkeit der Technikfolgen-Einschätzung insbesondere für Redakteure an einem Beleg-Beispiel verdeutlichen zu können. Auch haben wir zusammen mit der Redaktion entschlossen, den KI-generierten Beitrag über diesen Messenger nicht als Anlage beizufügen, mit den vier genannten Referenzen, kann jeder mit einer KI sich dazu selbst diesen Beitrag generieren lassen und mit den vorgegebenen Referenzen vergleichen. Die kryptographische Richtigkeit bewerten wir in diesem Beitrag ebenso. Es wurden die folgenden vier Referenzen zum Messenger Smoke vorgegeben: Die Webseite des Messengers [A], ein Online-Artikel mit Beschreibung zu seinen Funktionen [B], eine Veröffentlichung im Zusammenhang mit Kryptographie [C], sowie ein Artikel in einem Sammelband zur Netzpolitik [D].

Die KI-Generierung des Smoke-Beispiel-Artikels erfolgte innerhalb weniger Sekunden.

Solche Texte und Artikel maschineller und künstlicher Editions-Algorithmen werfen jedoch Fragen und Notwendigkeiten zur Einschätzung von KI-generierten Texten und der Bewertung von Qualitätsjournalismus auf.

Methode: Neuer Content im Web mit noch wenigen ausführlichen Referenzen –- Prototyp trifft Prototyp

Methodisch wollten wir also den Umstand nutzen, einen KI-generierten Artikel zu einem Thema erstellen zu lassen, zu dem es im Web noch wenig Inhalte und Referenzen gibt, bzw. das noch nicht stark verbreitet ist.

Dabei gibt es kaum neue Themen, die im Web selten sind. Wenn ein Autor ein Buch schreibt, ist die ISBN-Nummer bzw. die Buchbeschreibung zunächst bei Google nicht vertreten. Wenn die Buchhandlungen und Online-Shops sowie Rezensenten Beiträge verfassen, erst dann können Bing, Google und auch die Maschinen künstlicher Intelligenz beginnen, die Inhalte zu verzeichnen. Methodisch interessieren uns also solche Fälle, zu denen in der Wikipedia oder bei Google sowie in tatsächlichen Redaktionen kaum ausführlicher Content vorhanden ist.

Dieses ist beim Messenger Smoke mit Einschränkungen derzeit der Fall. Die inhaltlichen ausführlichen Beschreibungen des weltweit ersten McEliece-Messengers lassen sich an einer Hand aufzählen.

Aufgrund der hohen Rechen-Kapazität der Quanten-Computer sind bislang übliche Verschlüsselungsverfahren aktuell und auch zukünftig nicht mehr sicher. Der von Robert McEliece erdachte, gleichnamige Verschlüsselungsalgorithmus McEliece berechnet sich doch auf eine andere Art und Weise und gilt daher als sicher gegen die Rechenkraft der Quanten-Computer.

Obwohl das theoretische Konzept zur McEliece-Verschlüsselung schon seit mehr als 40 Jahren bekannt ist, ist dieser Algorithmus erst vor wenigen Jahren erstmalig in einer funktionsfähigen Programmierung angewandt worden: Der Messenger Smoke war weltweit der erste Prototyp, der das McEliece-Messaging sogar mit vier verschiedenen Moduli implementiert hat. Eine Innovation mit neuem Wissen zu der wir eine KI befragen wollten. Prototyp trifft Prototyp: Künstliche Intelligenz in frühem Release-Status schreibet über diesen modernen Messenger in ebenso frühem Release-Status.

Somit kann das Thema des McEliece-Messagings als innovatives Beispiel für die Generierung eines Artikels aus einer KI heraus dienen, um die KI-Qualität zu bewerten.

Die Inhalte im Kontext dieses neuen Messengers und die kryptographischen Zusammenhänge des McEliece-Messaging sind ein spezifisches Fachgebiet. Man muss sie tatsächlich kennen, um darüber aus dem Stehgreif referieren zu können. Kann sich also eine künstliche Intelligenz diese Inhalte erschließen, Erkenntnisse verbinden und darüber referieren? Und dies möglichst sachlich richtig, kompakt und frei von Widersprüchen?

Crypto Chat

Mehr als ein „Erntehelfer“? KI erarbeitet Texte schnell, umfassend und konsistent

Um das Ergebnis vorwegzunehmen: Man muss sagen, die KI hat zur vorgegebenen Themenstellung wenig falsch, heißt: alles richtig gemacht. Die Erstellung des Smoke-Artikels zum McEliece-Messaging durch die Maschine ist sogar verblüffend:

Der Artikel ist fachlich richtig und sachlogisch gut aufgebaut.– Und das bei einem so fachlich komplexen, speziellen Gebiet der Kryptographie bzw. dem neuen und wenig zweitverwerteten Content über diesen innovativen Messenger, der quelloffen angetreten ist, mit seiner Verschlüsselung wie David gegen Goliath den Quanten-Computern Paroli zu bieten.

Für manche ist es sicherlich erschreckend, wie die KI innerhalb von Sekunden einen Fachbeitrag erzeugen kann. Jeder kann es mit den oben genannten vier Referenzen mit jeder fortschrittlichen KI auch wissenschaftlich sicher nachvollziehen.

Es gibt im deutschsprachigen Raum eine nur knapp definierte Anzahl an Lehrstühlen für Kryptographie. Die Lehrenden kennen den vor kurzem verstorbenen Robert McEliece ggf. als Namensgeber für den gleichnamigen McEliece-Algorithmus. In welcher Wissens-Tiefe, und ob der aktuelle Zertifizierung-Prozess dieses Algorithmus bei der amerikanischen Normungsbehörde NIST für die Post-Quantum-Kryptographie oder gar der bereits erfolgreich und quelloffen implementierte Algorithmus im Messenger Smoke überhaupt als Zukunftsperspektive oder Gegenstand Eingang in Forschung, Lehre und Publikation gefunden hat, mag dahingestellt sein.

McEliece-Messaging ist derzeit also ein bislang in der Breite wenig bekanntes Spezial-Gebiet, zu dem eine Künstliche Intelligenz nun mit einer Recherche und dem Verfassen eines Artikels beauftragt wurde.

Werden nicht nur Redakteure, sondern zukünftig auch Professoren und Lehrbeauftragte nicht nur von der Schnelligkeit und den umfassenden Ergebnissen künstlicher Intelligenz ersetzt?

Der Fachverlag Springer beispielsweise benötigt allein neun Monate für das Lektorat und den Druck eines Buches bei fertigem Manuskript. Und ein Autor beim Fachverlag Springer wird daran mehr als ein Jahr, wenn nicht länger, gearbeitet haben.

Und nun kommt eine KI und bildet fachlich korrekte Artikel innerhalb von Sekunden?

Das kann Einfluss auf einen „Wissensbetrieb“ wie das Wissenschaftssystem oder auch die Schulen haben. Werden zukünftig z.B. noch studentische Hilfskräfte gebraucht, die Bücher aus der Bibliothek zum Lehrstuhl schleppen, die vom Lehrenden durchgesehene Fachzeitschriften mit angekreuzten Artikeln fotokopieren oder gar die nach Fachgebieten aufgelistete Neuerscheinungen der Deutschen Nationalbibliothek für eine Anschaffung am Lehrstuhl durchsuchen und den Lehrenden vorschlagen?

KI erledigt dieses auf dem Datenhighway nicht nur umfassend und schnell, sondern erzeugt auch relevante und logisch konsistente, fehlerfreie und sprachlich ausgefeilte Inhalte zu den gewünschten Themen.

Versehen mit Ängsten vor den Maschinen und vor Arbeitsplatzverlust oder mit Chancen auf mehr Qualität?

Kritiker fragen sich also, ob KI-Writing morgen nicht nur die Arbeit von Professoren und Lehrenden als Autoren ergänzt oder ersetzt, sondern schon heute auch Journalisten, Editoren und Redakteure bereichern und entlasten – oder damit gar ersetzen kann.

Sicher gibt es solche und solche Journalisten. Jene, die nur –nennen wir es mal –„ventilieren“, bekannte News nochmal mit der Arbeit für das eigene Portal bekannter machen, alte Themen nochmal aktualisieren und mit einem bestimmten Fokus spezifizieren, oder mit einem Fallbeispiel versehen. Englische News-URLs ins Deutsche bringen. Paraphrasieren. Auch das gehört zur Veröffentlichung. Nehmen wir die Yellow-Press, die gleiche Inhalte von Prominenten über Jahre aufgreift oder am besten von anderen Blättern abschreibt. Es sind die „Mitlutscher“, wie Désirée Nick sie in ihrem Buch „“Alte weiße Frau““ mal nannte. Im Bereich einer wissenschaftlichen Hausarbeit ist eine Zusammenstellung mit spezifischem Fokus hingegen eine grundlegende Übung des Publizierens. Nicht immer kann das Rad neu erfunden werden.

Und dann gibt es die Journalisten, die Themen aktualisieren, mit zu ihnen gesprochen Zitaten oder selbst recherchierten und mit-erlebten Fallbeispiel-Berichten versehen. Die eine Neuigkeit oder einen Themen-Beitrag spezifisch neu fassen, Innovationen publizieren.

Sicherlich kann jeder dieser Journalisten KI-Text-Werkzeuge zur Recherche und Entwurfsvorlage einsetzen. Ein menschliches Lektorat ist immer angebracht und sinnvoll, wird jeder wissen.

Die Frage ist jedoch nicht nur, wie viel Maschine steckt in dem Text des Journalisten oder eines Studierenden, sondern die Frage beginnt schon bei der unbekannten Variable: Auf welche Datenbasis stützt sich eine KI und welche KI wurde für wie viel Geld eingesetzt?

Don’t feed the Trolls? – Die Fütterung der lernenden Maschinen ist umstritten

Nun haben aktuell der Nachrichten-Verlag Springer und die Firma der Künstlichen Intelligenz „ChatGPT“ namens OpenAI eine Kooperation angekündigt.

OpenAI, das Unternehmen hinter der Künstlichen Intelligenz „ChatGPT“, wurde 2015 gegründet. Das erste Sprachmodell, GPT-1, wurde im Juni 2018 eingeführt. Es bestand aus 117 Millionen Parametern und definierte die grundlegende Architektur für das spätere ChatGPT. Die Anzahl der Parameter definiert dabei die Leistungsfähigkeit eines KI-Modells. Der im Februar 2019 gestartete Nachfolger, GPT-2 umfasste bereits mehr als zwölfmal so viele Parameter, nämlich 1,5 Milliarden. Aus Sorge vor Missbrauch wurde GPT-2 erst Monate später für die Öffentlichkeit freigegeben. GPT-3 folgte dann im Juni 2020. Man hatte es mit 175 Milliarden Parametern trainiert. Es war das erste Modell, das in der Lage war, wirklich umfassende und unterschiedliche Aufgaben zu erledigen. Vom Verfassen von E-Mails und sonstigen Texten, über Übersetzungen bis zur Erstellung von Programmiercode. Zudem war diese KI erstmals in der Lage, umfassend frei formulierte Fragen von Nutzern in Form eines Artikels zu beantworten.

Durch die Kooperation von OpenAI und dem Springer-Verlag gehen nun tagesaktuelle Nachrichten in die KI ein und Journalisten von Springer werden aus der Datenbank der Künstlichen Intelligenz heraus Texte in Windeseile erstellen können.

Zugleich hatte der Springer Verlag nur wenige Monate zuvor mitgeteilt, Mitarbeiter entlassen zu wollen, die durch KI ersetzt werden können.

Doch wenige Wochen später klagte die New York Times gegen OpenAI, da deren Maschinen auch auf die frei zugänglichen Inhalte dieser Online-Zeitung zugreift und die zu Stichworten und Kontexten abgefragten Artikel, die daraus generierten Ergebnisse und die damit erlernten Verarbeitungsprozesse sich selbst aneignet. Wissen werde gestohlen, weil es nicht frei ist.

Schließlich ist es auch ein Kampf um die Urheberrechte. Wenn ein Autor einen einmalig existierenden Inhalt und Artikel geschrieben hat und zahlreiche Journalisten lassen es durch eine KI ohne weiteres Lektorat umschreiben, dann stellt sich die Frage der sogenannten Schöpfungshöhe wie auch einer Zweitverwertung durch KI.

Ein Autor, dessen Artikel von der KI zu einem neuen Artikel verarbeitet wurde, mag seine Rechte anmelden. Auch der KI-verwendende Autor mag keine Rechte an seinem Artikel haben, weil dieses ja die KI geschrieben hat.

Bedeutet in der Folge: Müssen Google oder Bing als Suchmaschinen nun auch finanzielle Abgaben für die Listung und SEO-Bewertung von Online-Artikeln an die Hoster der Inhalte bezahlen? Oder muss eine KI einen finanziellen Beitrag an Suchmaschinen entrichten, weil beispielsweise das Google-Ranking für URL-Ergebnisse bei Stichwort-Abfragen genutzt wurde? Muss die KI einen Beitrag an die Webseiten-Hoster zahlen, die zu der gefundenen URL einen inhaltlichen Artikel und damit erfassbares Wissen an die lernenden Maschinen preisgeben?

Der KI-Algorithmus zur Erstellung von Texten ist inzwischen weiter als nur Absätze aus der freien Wikipedia zu verschiedenen Stichworten aneinander zu reihen oder vorzulesen. Auch wenn man annimmt, das Google zu den meistgesuchten Stichworten die Top 100 URL-Ergebnisse im Ranking handverlesen geprüft hat oder eine KI zu den Stichworten auch die grundsätzlichen Sätze aus der Wikipedia zusammenschustern kann, so ist die Erstellung eines logisch aufbauenden Artikels doch komplexer und kann bei den zahlreichen Anfragen nicht rein händisch nachgebessert werden.

Und KI scheint eigene Sätze und logische Verknüpfungen zu bilden, auch gerade, wenn Text-Ressourcen aus anderen Sprachen übersetzt werden. Was folgt aus den Beständen und was aus dynamisch ad hoc hinzugefügten Inhalten – bzw. zunehmend besser prozessierten Inhalten einer KI in der Zukunft an Urheberrechten und finanziellen Ansprüchen von wem an wen?

Wie sich die Bilder gleichen. Ein simpler Webstuhl in Aktion. Zeichnung von Pearson Scott Foresman.

Mensch-Maschine-Wettbewerbsdruck im Journalismus, Luddismus neu definiert

Doch egal, WIE KI die Ergebnisse generiert – mit oder ohne Google-Algorithmus und Wikipedia-Content oder vom Anfragenden handverlesene, ggf. selbst recherchierte, priorisierte und vorgegebene URLs die ERGEBNISSE des autonomen oder teil-autonomen KI-Schreibens werden dazu führen, dass Journalisten nicht mehr 3-5 Artikel am Tag verfassen, sondern mehr als 10 Artikel pro Tag mit diesen Erntemaschinen generieren können.

Das erhöht den Druck auf die Schreiber, die keine KI einsetzen. KI bietet bildlich gesprochen einen industriellen Webstuhl, der die manuelle Stickerei verdrängen wird. Zurecht werden die texterstellende Maschinen daher als „Erntehelfer“ bezeichnet, wie die Verwertungsgesellschaft-Justiziarin Anke Schierholz sie einmal nannte.

Der Luddismus – oft auch als Maschinensturm bezeichnet – war Anfang des 19. Jahrhunderts eine primitivistische Bewegung englischer Arbeiter. Sie kämpften gegen ihren Statusverlust und die drohende soziale Verelendung durch die einsetzende Industrialisierung, insbesondere durch Webstühle. Es waren die Textilarbeiter, die als Luditten und damit als Vertreter des Luddismus bezeichnet wurden. Sie kämpften gegen die Verschlechterung ihrer Lebensbedingungen im Zuge der Industriellen Revolution. Sie haben dabei auch gezielt Maschinen in Form der Webstühle zerstört.

Journalisten fragen sich zu Beginn des 21. Jahrhunderts analog, wie sie geistige „Handarbeit“, mit Recherche, Einfluss und Konsolidierung von Werten und Haltungen, Pro- und Contra-Erfassung, ggf. langwierig recherchierten Sachverhalten, Fallbeispielen und Zitaten, sowie abgestimmten Qualitätsstandards im Kampf gegen die Text-Erstellung durch künstlicher Intelligenz zukünftig honoriert bekommen sollen.

Denn Verwertungsgesellschaften fordern nicht nur eine Kennzeichnung von KI-erstellten Texten, sondern wollen die Maschinen-Texte auch nicht mehr finanziell anerkennen.

Doch die KI-Luditten zerstören die KI nicht, sondern setzen sie individuell fleißig in der tagtäglichen Redaktions-Arbeit ein. Oder nutzen sie (noch) nicht und geraten im Wettbewerb mit den Kollegen unbemerkt ins Hintertreffen.

KI, AI
AI – Bildquelle, thx!

Struktureller Digitalzwang: Niemand wird sich einem KI-Spick-Zettel entziehen können

Wenn wir eine KI zur Erstellung eines Textes wie einen Spickzettel in der Deutsch-Klausur sehen, dann wird jeder Journalist diese Option in der auch unter Effizienz-Druck und Schnelligkeit geprägten Nachrichtenwelt annehmen müssen. Auf der individuellen Ebene werden also diejenigen Beschäftigten der News-Industrie, die nicht KI-digital sind, ins Hintertreffen gelangen.

Auch dieses kann als eine Art von strukturellem Digitalzwang gesehen werden, wenn die Arbeitsprozesse der Journalisten die Nutzung digitaler Werkzeuge im Wettbewerb erzwingen und damit der Mensch sich selbst ersetzen muss, weil die Kollegen einen in diese Peer-Praxis eingemeinden. Bei dem vorherrschenden Zeitdruck der Branche wird sich von den Journalisten kaum jemand dem KI-Spick-Zettel entziehen können. Noch bietet es sich kaum an, stattdessen für den eigenen Vorteil die KI bei der Erstellung von Texten einbeziehen, außer bei der Korrektur mittels DeepL Write & Co.

Das bedeutet aber auch, so dass die individuelle KI-Nutzung bzw. der dadurch entstandene strukturelle Digitalzwang kollektive Vereinbarungen der Gewerkschaften zum Einsatz des Werkzeuges KI unterwandert oder gar in der Praxis nicht bindend verhindert.

Die Gewerkschaften sind daher ebenso gefordert, kollektive Vereinbarung zum Nachteil der eigenen Kollegen zu schaffen, die unter der Desktop-Kante heimlich einen KI-Spickzettel einsetzen und ihren Artikel durch diese Werkzeuge generieren lassen. Oder sie schaffen gewerkschaftliche Regelungen für solche Journalisten, die keine Künstliche Intelligenz einsetzen und daher in der Texterstellung schlichtweg länger brauchen.

Schließlich betreffen mitbestimmte Regelungsnotwendigkeiten auch Arbeitgeber. Sobald sie Artikel der KI einspeisen, machen sie ihre menschlichen Mitarbeiter potenziell arbeitslos. Betrifft eine „Fütterung“ also nicht nur die Datenbank einer KI? Muss damit auch die Selbstverdauung der Fütterer verstanden werden?

Derzeit ist eine Datenbank von KI-Maschinen mit drei, vier Artikeln zu allen möglichen Stichworten aufgebaut. Die Ergebnis-Artikel der KI werden wiederum in der KI-Datenbank zur Verfügung stehen.
Es ist vergleichbar mit dem Aufbau von Artikeln in der Wikipedia zu allen möglichen Stichworten, Sachverhalten und Kontexten.

Wenn dieses in wenigen Jahren abgeschlossen oder sagen wir umfassender ist, werden dann nur die heute bestehenden Maschinen ihre Marktmacht derart ausgebaut haben, dass neue oder alternative oder gar quelloffene Intelligenzen keine Chance mehr hinsichtlich zu erzeugender qualitativer Ergebnisse haben? Von den Menschen, die solche Ergebnisse weiterhin ohne künstliche Intelligenz erzeugen, ganz zu schweigen? Und wird eine „Selbstverdauung“ auch darin bestehen, dass eine KI auch diejenigen Journalisten ersetzt, die diese mit Ihren Artikeln selbst gefüttert und aufgebaut haben?

Wird dies eine Zeit sein, in der die ventilierenden, paraphrasierenden Journalisten ihren Arbeitsplatz längst verloren haben? In der eine KI eine andere KI gemäß dem Marx’schen Paradigma „geschluckt“ hat und wesentliche Marktmacht erhalten haben wird?

Betrifft es auch eine Zeit, in der journalistische Gewerkschaften nicht mehr vorhanden sind, weil ihre Arbeitsplätze massiv durch texterzeugende Maschinen ersetzt wurden? Ist es nicht nur ein individueller, sondern auch kollektiver Selbstverdauungsprozess nach Fütterung der Maschinen zur künstlichen Intelligenz, der die Gewerkschaften der vierten Staatsgewalt – der Presse und Medien – betrifft?

Kollektive Regelungen seitens der Gewerkschaften zum Einsatz von KI werden also durch eine individuelle Maxime unterlaufen, wenn jeder für sich über deren Einsatz entscheidet.

Kollektive Solidarität durch KI-Regelungen kann daher nur gefunden werden, wenn Qualitäts-Journalismus nicht an ein Eichhörnchen-Prinzip des Sammelns von täglich mehreren Eicheln gebunden ist. Sprich Kriterien zum Qualitäts-Journalismus, die man jenseits von Menge und Output definiert.

Lesetipps, Presse

Kriterien für Qualitätsjournalismus im Performance-Review

Video killed the Radio Star“ hieß es damals in dem gleichnamigen Song. Doch heute ist es der KI-einsetzende Text-Journalist, der einen strukturellen Digitalzwang auf den Text-Journalisten ausübt, der keine KI einsetzt oder einsetzen möchte. Inklusive der Arbeitgeber, die kulturell den Einsatz einer KI vorgeben. Sie verändern zumindest bisherige Tätigkeiten.

Im kommenden Jahresgespräch werden die Artikel des letzten Jahres gezählt. Man misst die Performance des Journalisten dann an seiner Quantität und viel zu wenig an dessen journalistischer Qualität. Beurteilungssysteme in den Redaktionen müssen daher gewerkschaftsseitig und von Personalräten unterstützt und neu verhandelt werden.

Wie vehement ging der Einspruch der Betriebsräte im Software-Konzern SAP durch die Presse, als ein Leistungsentgelt und dafür bestehende, entsprechende Beurteilungskriterien im Mitarbeitergespräch eingeführt werden sollten. Die 3 x 3 = 9-Block-Tabelle, die qualitativ gute und schnelle Mitarbeiter rechts oben eingruppiert und langsame Mitarbeiter mit häufigen Fehlern unten links, ist mit ihren Achsen von Zeit und Output mitbestimmungspflichtig.

Auch im KI-generierten Qualitätsjournalismus wird es weiterhin zwei Achsen geben: die Schnelligkeit und die Menge an Text. Weitere Qualitätskriterien sind jedoch erforderlich. Die Frage nach Qualität (und ihren Kriterien) stellt sich im Journalismus also weiterhin. Die Frage haben bisher wenige Arbeitgeber, geschweige denn journalistische Betriebsräte oder Gewerkschaften beantwortet.

KI
Bildquelle: zUba thx!

Kennzeichnungspflicht für Falsche Fuffziger?

Und schließlich, wie wollte man „Falsche Fuffziger“, also mit KI generierte Artikel erkennen? Sollen KI-generierte Texte unter der Verpflichtung stehen, Zitate, sowie einzelne Sätze und andernorts entnommene Inhalte mit Quellen kennzeichnen zu müssen? Ist die Politik gefordert, hier eine Kennzeichnungspflicht durch Menschen oder gar in den Ergebnissen der Maschinen selbst einzufordern?

Doch wie will man verschiedene Grade abstufen, inwieweit eine Recherche und zusammengebrachter Text und ein sich anschließendes Lektorat auf KI aufbaut? Es wird Journalisten geben, die mit der englischen Original-Nachricht automatisiert einen deutschen Abklatsch-Artikel per KI generieren lassen. Es wird Journalisten geben, die den Beitrag manuell selbst schreiben. Und es wird Journalisten geben, die sich nur einen Entwurf schreiben lassen und diesen massiv selbst anpassen.

Weder der derzeit aktuelle Artificial Intelligence Act noch die Urheberrechtsrichtlinie von 2019 decken die entstandenen Fragestellungen vollständig ab. Wie soll also die sogenannte Schöpfungshöhe im Tagesgeschäft beurteilt werden?

All diese Probleme sind derzeit hochaktuell, so dass einige KI-Text-Generatoren an jeden Satz bzw. Sachverhalt bereits jetzt auf freiwilliger Basis eine Fußnote setzen, aus welcher Quelle die KI diese Informationen entnimmt. Wissenschaftlichen Quellen-Verweisen genügt dieser Standard jedoch noch nicht.

Die Tatsache, dass eine KI nicht zitiert, und bestenfalls einer politischen, wissenschaftlichen oder gewerkschaftlichen Forderung nachkommt, Zitate bzw. textliche Inhalts-Abschnitte mit Quellenverweise zu belegen, wird insbesondere zu besprechen sein, wenn eine Content-Partnerschaft von einer KI mit Nachrichtenverlagen entsteht, wo die (menschlichen) Quellen nicht genannt werden.

Würde man also von einer KI wissenschaftliches Arbeiten und Zitieren qua gesetzlicher Vorgabe verlangen, wäre dann der Einsatz von KI legitimierter? Oder kann es bei menschlichen Text-Ergebnissen einen selbstverpflichtenden Beurteilungsstandard für Journalisten geben, der weniger lügt als ein von Autoherstellern angegebener reduzierter Dieselverbrauch?

„Verschweige den Einsatz von KI mehr als andere und Du erhältst mehr Einkommen als andere. Dies dürfte die künftige Compliance-Frage an die gesamte Zunft sein. Doch darauf haben weder die Journalisten noch die Verwertungsgesellschaften derzeit eine Antwort.

movie4k.to

Wird eine Vergütung von KI-Texten ausgeschlossen? Oder zahlt der KI-Entwickler für die Nutzung von Text-Quellen?

Sind die Kriterien zur Bewertung eines Qualitätsjournalismus erstmal definiert, stellt sich in einem zweiten Schritt auch die Frage nach der Bezahlung und Vergütung.

Viele Autoren sind bei der Verwertungsgesellschaften VG Wort in München registriert. Sie bekommen für einen Blog-Eintrag oder einen News-Artikel abhängig von den Zugriffszahlen entsprechende ergänzende Vergütungen. Was passiert nun, wenn einige Autoren mit KI nun die doppelte Menge an Artikel schreiben?

Die VG Wort überlegt laut Vorsitzenden Robert Staats für KI-Texte, die kein Urheberrecht haben, zukünftig keine Vergütungen mehr auszuschütten. Das verändert das Entgelt-Modell: die Ausschüttungssumme der VG Wort muss dann verändert werden.

Es ist eine Grundsatz-Entscheidung, wie sie eine Schule trifft, ob Smartphones und heimliche TikTok-Stream-Aufnahmen des Lehrers im Klassenzimmer erlaubt sind. Sind Verwertungsgesellschaften also die wahren Luditten, weil sie eine Wertschöpfungsabgabe bzw. Maschinensteuer auf KI-Maschinen und ihre Ergebnisse ablehnen?

KI ist eine neue Art von Mining und Fracking. Es ist ein Anbau und Herauspressen aus bestehenden Roh-Texten und angereicherten Datenbanken und ihren Verwertungsalgorithmen. Nur wenn KI alle Quellen satzweise kennzeichnet, kann eine Verwertungsgesellschaft auch den URL-Hostern dieser Inhalte eine Vergütung seitens der KI zukommen lassen.

Wer KI einsetzt, sollte die Kosten der KI-Firma an die genutzten Quellen refinanzieren müssen. Wenn die Preise dann so sind, das selbst schreiben so teuer ist wie sich schreiben lassen, dann kann es wieder eine Balance geben. KI-Maschinen müssten dann eine Urheberrechtsabgabe an ihre gekennzeichneten Quellen bezahlen.

Sind diese Sachverhalte auch ein Plädoyer für die Ausweitung des öffentlich-rechtlichen Journalismus, bei dem eine grundlegende Recherche nicht der Taktung wie im freien wirtschaftlichen Journalismus unterliegen muss und die Fertigstellung eines Artikels samt Recherche so lange dauern kann, bis sie halt eben fertig ist?

Eine monatliche Flatrate-Bezahlung – ohne das Sichten und Summieren von Einzel-Ergebnissen z.B. in Form von Anzahl an Artikeln oder Textzeilen wäre dann dieser Argumentation nach weiterhin erforderlich und auch ein Modell für ergänzende Zahlungen einer Verwertungsgesellschaft: Man nennt es monatliches Grund-Gehalt bzw. -Entgelt.

Perspektiven des Einsatzes KI-optimierter Texte

Bislang hätte man argumentieren bzw. vereinfacht annehmen können, eine KI nimmt gewünschte oder erkannte wesentliche Stichworte und gruppiert nur jeweils ein paar Absätze aus der Wikipedia dazu.
Auch eine KI soll ja bekanntlich nur mit Wasser kochen. Doch es ist weitaus mehr.

Die KI bietet inzwischen nicht nur das Mischen von woanders entnommenen Absätzen. Das Ergebnis ist eine neue Schreibe und neue Edition.

Die KI kann inzwischen viel mehr, als Satzbauteile neu zu ordnen. Dies beweist das Ergebnis unseres Beispiel-Artikels zum Messenger Smoke. So haben wir es am Beispiel des KI-genereiten Artikels zum Crypto Messenger Smoke nachvollzogen.

Der in unserem Versuch KI-generierte Beispiel-Text behandelt das Thema zum dem kryptographischen Werkzeug „Smoke Crypto Chat Messenger. Die Software gilt als weltweit erster McEliece Messenger.

Mit diesem haben wir getestet, ob eine KI in diesem Spezialgebiet des McEliece-Messagings mit geringen ausführlichen Quellen inhaltlich passend und fachlich richtig antwortet, und einen im Duktus interessanten und logisch aufgebauten Artikel konsistent schreiben kann. Sie kann, die KI kann.

Der Text des eines solchen Artikels wäre, da KI generiert, zudem lizenzfrei und „public domain“. Und da es noch keinen Wikipedia-Eintrag zum McEliece-Messaging gibt, könnte man einen so generierten KI-Artikel dort in alle Sprachen übersetzen.

KI

Ist das also auch eine Zukunftsperspektive: Die Präsenz einer mit Künstlicher Intelligenz erstellten lexikalischen Bibliothek, deren Artikel bald eine Grundlage für Lehre und Edukation im Sinne eines Umgangs und der Anwendung von anzueignendem Wissen in Schulen sein wird? KI wird mit weiterem maschinellem Lernen zukünftig eine eigene Datenbasis auch an Artikeln generieren. Diese werden weit umfassender, aktueller und facettenreicher sein, als die Wikipedia es mit ihren derzeit abnehmenden menschlichen Autoren und ihren Edit-Wars über eingefügten Text-Strings überhaupt etablieren kann.

Sollte man die KI statt der Wikipedianer einsetzen?

Die KI schreibt mitunter bessere Absätze als der Absatz in der der Wikipedia sein kann. Wer einen Artikel aus der Wikipedia, gleich welcher Sprache, als Referenz in eine KI gibt, wird schnell feststellen, dass die KI bessere Texte schreibt, als es das Gefrickel zahlreicher Wikipedia-Autoren und deren Ringen um die Satzbausteine zustande bringt.

Ob es bald eine KI-generierte Wikipedia geben wird, deren Artikel-Qualität so hoch ist, dass diese Artikel automatisiert in alle Sprachen der Welt übersetzt werden können, wird die Zukunft zeigen.

Die Länder-Communities der Wikipedia, die unterschiedliche Artikel-Existenzen, Artikel-Längen, Artikel-Qualitäten und Artikel-Aktualitäten hervorbringen, würden dann durch KI auf einen gemeinsamen und besseren Standard harmonisiert.

Und ist es auch ein Edukations-Modell, nicht nur für die Inhalte der Curricula der Länder in der Schullandschaft Deutschlands, sondern auch für das Lehrpersonal unterschiedlicher Länder, indem in einem nächsten Schritt künstliche, virtuelle Lehrpersonen als künstliche Avatare die erstellten Inhalte und Texte künstlicher Intelligenz vorlesen? Der Avatar-Generator Hey-Gen ist bereits mit dem Text-Generator ChatGPT verknüpft.

KI-generierte Texte sind daher ein schleichend prozessierender Game-Changer und stellen alle oben genannte Aspekte auf den Kopf auf die zahlreiche Steakholder Antworten formulieren sollten.

Politischer und gewerkschaftlicher Regelungsbedarf ist also in jedem Fall gegeben – wenn nicht jede sach-textliche Veröffentlichung von Wissen frei von Rechten sein soll. Was in der Öffentlichkeit gelesen werden kann, muss auch in der Öffentlichkeit diskutiert und wiedergekaut werden können. Das gilt dann auch für Text-erfassende und Text-edierende bzw. lernende Maschinen und deren künstliche Intelligenz?

Und das stellt auch zwei grundsätzliche Fragen. Erstens, ob ab einem gewissen zukünftigen Reifegrad eine hochgebildete KI auch einen Urheberrechtsanspruch anmelden können wird?

Bzw. zweitens, ob maschinell erzeugtes Wissen und (formulierter) Inhalt – als textliches Ergebnis aus „verarbeiteten“ Wissensbeständen – public domain und urheberrechtsfrei gestellt wird bzw. urheberrechtsfrei bleibt?

Ein Gastbeitrag von Robert Strang und Joachim Feuerkohl, vielen Dank!

Tarknappe.info