Zeitungs-Interview: Qualitätsjournalismus ist nicht ersetzbar

Künstliche Intelligenzen schreiben Texte auf Bestellung. Wo werden die Textroboter unser Leben verändern? Und wie den Journalismus? Das sagt Marketing-Experte Prof. Dr. Andreas Fuchs über ChatGPT & Co..

Seit November 2022 ist mit „ChatGPT 3“ die erste massentaugliche Künstliche Intelligenz (KI) zum Schreiben von Texten, Beantworten von Fragen und Recherchieren verfügbar. Mittlerweile hat der Hersteller OpenAI bereits Version 4.0 veröffentlicht, Google zog im Mai mit seiner Künstlichen Intelligenz
names „Bard“ nach. Solche Sprachmodelle lernen ständig neu hinzu, sie sind faszinierend und schockierend zugleich. Werden ChatGPT und andere KIs den Journalismus revolutionieren? Oder
werden ihre Möglichkeiten überschätzt? Dass sich viel verändert, davon ist Andreas Fuchs von der Technischen Hochschule Würzburg- Schweinfurt (THWS) überzeugt. Der 40-Jährige ist Professor für
Marketing und Digital Business und beschäftigt sich seit Längerem mit Sprachmodellen und Künstlichen
Intelligenzen.

Herr Fuchs, ist es vorstellbar, dass in zehn Jahren eine Künstliche Intelligenz ein solches Interview mit
Ihnen führt?

Prof. Andreas Fuchs: Absolut. Ich glaube, dass es nicht einmal zehn Jahre dauern wird. Wir sehen Möglichkeiten der Anwendung ja bereits in anderen journalistischen Bereichen, etwa im Sport: Wo man früher Praktikanten drangesetzt hätte, kann heute schon eine KI einfache Spielberichte schreiben.

Und wer überprüft den Wahrheitsgehalt dessen,was eine KI so raushaut?

Fuchs: Das ist die entscheidende Frage. Es werden so irre viele Informationen ausgespuckt, dass es
schwer wird, zwischen richtig oder falsch zu entscheiden. Ich habe es in Hunderten Tests ausprobiert, habe so genannte Prompts – also Befehle – eingegeben. Die Ergebnisse waren teilweise wirklich gut, in manchen Fällen waren die Antworten aber schlichtweg falsch. Wenn man dann nicht kritisch hinschaut und alles für bare Münze nimmt, kann das gravierende Folgen haben – für journalistische Texte, für Abschlussarbeiten. Oder wenn man es größer denkt, auch für die Demokratie.

Das heißt, eine KI wie ChatGPT kehrt im Netz alles zusammen und schleudert auch Fake News durch die Welt?

Fuchs: Bei der KI handelt es sich um neuronale Netze. Da steckt Statistik dahinter, die in Milliarden von Tests beziehungsweise Trainings lernt, in welchen Zusammenhängen Wörter vorkommen – das ist das Sprachmodell. Was wahr oder falsch ist, weiß die KI jedoch nicht. Die Schöpfer einer Künstlichen Intelligenz können ihr gewisse Grundsätze einimpfen. Wenn Sie ChatGPT nach einem Frauenwitz fragen, werden Sie keine Antwort bekommen. Denn man hat dieser KI beigebracht, dass keine Gruppe von Menschen wegen Geschlecht, Aussehen oder Herkunft diskriminiert werden darf.

Und woher bekommt die KI all ihre Informationen?

Fuchs: Generell greift ChatGPT 4 noch nicht auf alle Informationen im Internet zu, sondern wurde mit einem bestimmten Datensatz (bis einschließlich 2021) gefüttert. Die Entwickler haben sich ein Bild des
Internets gezogen und auf die Server gepackt. Das ist die Datengrundlage für das Training, darüber
läuft die KI und lernt immer weiter. Bei Googles Sprachmodell „Bard“ sieht das schon anders aus.
Bard ist direkt mit dem Internet verbunden und stellt somit akkurate und aktuelle Informationen zur
Verfügung – sicherlich ein Wettbewerbsvorteil. Während GPT also nur weiß, wie oft Messi die spanische
Meisterschaft gewonnen hat, weiß Bard, dass der beste Fußballspieler der Welt auch Weltmeister
ist – und aktuell verletzt.

Zeitungs-Interview

Wie gefährlich kann es sein, sich unbedacht auf die KI zu verlassen? Sie sprachen von einer Gefahr
für die Demokratie.

Fuchs: Das kommt auf den Anwendungsfall an. Das kann ungefährlich sein, wenn sie mir das falsche
Ergebnis der Würzburger Kickers ausgibt. Davon wird die Welt nicht untergehen. Aber es wäre natürlich
denkbar, dass eine KI mit Falschinformationen oder gezielten Vorurteilen manipuliert wird. Das
könnten sich zum Beispiel autoritäre Regime zunutze machen und erinnert an die Umschreibung von
Geschichtsbüchern. Das halte ich in der Tat für gefährlich. ChatGTP und Bard werden davon nur bedingt betroffen sein, da sie von amerikanischen Unternehmen entwickelt wurden. Aber man erinnert sich an die kürzlich von der Bild-KI „Midjourney“ erzeugten Bilder des von der New Yorker Polizei verhafteten Donald Trump. Die Bilder waren bis auf wenige Details täuschend echt, aber nur „fake“. Ein weiteres Beispiel ist die Möglichkeit, aus ein paar kurzen Audio-Aufnahmen einer Stimme einen erdachten Text dieser Person in den Mund zu legen. Wir kennen alle das KI-Fake-Beispiel, wie Olaf Scholz den deutschen Bundestag auflöst. Auch hier natürlich alles erfunden – von Sascha Lobo. Aber man kann sich leicht ausmalen, wie in ein paar Jahren die Medienlandschaft aussieht, wenn man hinter jeder Nachricht Falschinformationen vermuten muss.

Für uns Journalisten ist die Quellenklarheit eines der wichtigsten Prinzipien. Da schwächelt
ChatGPT, oder?

Fuchs: Sie können die KI bei einer Aussage jederzeit nach der Quelle dafür fragen. Das funktioniert
durchaus in vielen Fällen. Aber anders gefragt: Wer sagt Ihnen denn, dass die Quelle eine gute ist? Das ist
ja nicht nur in Kriegszeiten eine extrem wichtige Einordnung. Eine Quelle ist nur so gut, wie sie überprüfbar ist.

Also vertrauen können wir der KI nicht wirklich …

Fuchs: Früher und teilweise noch heute haben wir gewisse Institutionen, denen wir vertrauen. Ich vertraue
zum Beispiel seriösen Medien wie der „Main-Post“, dem „Spiegel“ oder der Tagesschau. Aber mittlerweile
gibt es ganz viele, auch problematische Quellen, und der Journalismus hat nicht mehr die alleinige
Informationshoheit. Wir dürfen unseren eigenen kritischen Verstand niemals ausschalten. Wir
müssen lernen, Quellen stets zu prüfen und zu hinterfragen.

Wie könnten also ChatGPT oder generell solche Sprachmodelle den Journalismus verändern?

Fuchs: Die Auswirkungen auf die Zunft werden verschiedener Art sein. Es könnte die Frage auftauchen:
Wie viele Journalisten brauchen wir noch in einer Redaktion? Vielleicht werden sich bald ein, zwei
Redakteure die Themen überlegen und lassen sie von der KI erarbeiten? Das ist eine existenzielle Frage.
Aber noch viel wichtiger: Was passiert, wenn der Journalismus nicht mehr von Menschen gemacht wird?
Er sollte ja die vierte Gewalt im Staat sein und im Sinne von „Checks and Balances“ die drei anderen
Gewalten kontrollieren und transparent machen. Diese Kontrolle wäre bei einem reinen KI-Journalismus
nicht mehr gegeben – zumal wir nicht wissen, wer die KI steuert.

Also liegen darin die Stärke und die Chancen von Qualitätsjournalismus? In seiner Gatekeeper-
Funktion?

Fuchs: Ja, ich denke, das wird die entscheidende Legitimation für den Journalismus sein. Dass man Ihnen
vertrauen kann, als Institution von hoher Glaubwürdigkeit. Die Rolle wird sich für den Journalismus genauso ändern wie für die Hochschullehre: Es wird weniger um das reine Wiedergeben von Wissen oder
Fakten gehen, sondern viel mehr um die kritische Einordnung von Zusammenhängen, um Analyse und
Abwägung, um das eigentliche Verstehen – oder im Journalismus auch um die Nähe zu Mensch und Thema, wie sie eine KI niemals herstellen könnte. Zudem wird die Bedeutung der klassischen journalistischen Quellen im Sinne von glaubhaften Institutionen wieder steigen – im Kampf zwischen Desinformation und der Wahrheit.


Interview: Andreas Jungbauer

Der Artikel ist am 25.07.2023 in der Printausgabe der MainPost im Rahmen der Reihe „140 Jahre Medien für die Region) erschienen (https://www.mainpost.de/)