Content:

Dienstag
23.09.2025

Medien / Publizistik

Studien-Co-Autor Daniel Vogler... (Bild: zVg)

Studien-Co-Autor Daniel Vogler... (Bild: zVg)

Eine neue Umfrage unter Medienschaffenden hat aufgezeigt, wie sehr Künstliche Intelligenz (KI) bereits zum Arbeitsalltag von Schweizer Medienschaffenden gehört und wo es Defizite und Risiken gibt.

Der Klein Report sprach mit Daniel Vogler, Forschungsleiter und stv. Direktor am Forschungszentrum Öffentlichkeit und Gesellschaft (fög), über die mangelnde Überprüfung von KI-generierten Inhalten, das Konfliktpotenzial zwischen der journalistischen und der unternehmerischen Sicht auf den KI-Einsatz und über die Verheissungen des ETH-Sprachmodells «Apertus» sowie die blinden Flecken von ChatGPT.

Daniel Vogler hat an der von Silke Fürst geleiteten Studie mitgearbeitet.

Das kürzlich von der ETH lancierte Large Language Model «Apertus» wurde bereits als wichtiges Momentum für den Schweizer Journalismus gefeiert. Was ist aus Ihrer Sicht als Wissenschaftler das Spezielle daran?
Daniel Vogler
: «Das Modell adressiert viele Kritikpunkte an KI-Systemen. Es ist etwa frei zugänglich, bietet Transparenz und berücksichtigt die Mehrsprachigkeit der Schweiz. Aus journalistischer Perspektive ist zudem interessant, dass keine Daten von Medienunternehmen genutzt werden, sofern diese das nicht wünschen – also ein sogenanntes Opt-out gewährleistet ist.»

Kritiker würden sagen, das Modell der ETH sei eher klein, um mit den internationalen Tech-Giganten mitzuhalten. Wie schätzen Sie das ein?
Vogler
: «Diese Frage lässt sich derzeit nur schwer beantworten, da sich das Modell noch in der Testphase befindet. In einigen Anwendungsbereichen zeichnet sich jedoch ein Trend zu spezialisierten Modellen ab. Also beispielsweise solche, die mit Daten aus der Schweiz trainiert wurden. Modelle wie ChatGPT sind zwar sehr leistungsfähig, weisen jedoch auch blinde Flecken und Verzerrungen auf. Ein Beispiel dafür ist ihre starke Orientierung an der englischsprachigen Welt, da sie überwiegend mit englischsprachigen Inhalten trainiert wurden.»

Redaktionen versprechen sich von KI mehr Effizienz und gleichzeitig mehr Zeit für Recherche. Was für Modelle kennen Sie diesbezüglich schon aus der Praxis?
Daniel Vogler: «Das ist das grosse Versprechen von KI im Journalismus: eine Steigerung der Effizienz, sodass menschliche Arbeit gezielt dort eingesetzt werden kann, wo sie besonders wertvoll ist, etwa bei Recherchen vor Ort. Wie sich das in der Praxis tatsächlich auswirkt, wäre spannend zu beobachten, wurde in unserer Studie jedoch nicht untersucht. Aus den erhobenen Daten geht aber hervor, dass viele Medienhäuser aus Sicht der Befragten bislang keine klare Strategie verfolgen – insbesondere kleinere Redaktionen. In vielen Häusern befindet man sich daher nach wie vor in einer Phase des Ausprobierens und der Orientierung.»

Kritiker monieren, dass es am Ende für die Verlagsspitze mit KI doch eher auf Kostensparen hinausläuft als auf Qualitätssteigerung. Wie sehen Sie das?
Vogler
: «Zu den Absichten der Verlage könnte ich nur spekulieren. Die journalistische und die unternehmerische Sicht auf Potenziale und Risiken von KI bieten natürlich Konfliktpotenzial. Unsere Daten zeigen, dass Journalistinnen und Journalisten den Medienunternehmen grundsätzlich zutrauen, die Qualität im Blick zu behalten. Auffällig ist allerdings, dass sie in ihrer täglichen Arbeit bislang nur geringe Effizienz- oder Qualitätsgewinne wahrnehmen. Ein Teil der Medienschaffenden räumt zudem ein, nicht genügend Zeit zu haben, um KI-generierte Informationen sorgfältig zu prüfen oder durch eigene Quellen oder Auskunftspersonen zu ergänzen.»

Viele KI-Tools sind intransparent und machen Redaktionen abhängig von grossen Tech-Unternehmen. Was können Redaktionen dagegen tun?
Daniel Vogler: «Auch die Mehrheit der Befragten konstatiert eine wachsende Abhängigkeit von Tech-Unternehmen. Hier kann der gezielte Aufbau von Expertise einen wichtigen Beitrag leisten. Unsere Studie zeigt, dass viele Medienschaffende angeben, die Funktionsweise der eingesetzten KI-Tools nicht zu verstehen. Hilfreich wären zudem klarere Richtlinien seitens der Redaktionen: Welche Tools setzen wir ein, wo sind die Risiken zu hoch, und welche Inhalte dürfen wo hochgeladen werden? In diesem Zusammenhang lässt sich auch der Bogen zum Modell ‚Apertus‘ schlagen: Würde künftig stärker auf solche Modelle gesetzt, liesse sich die Abhängigkeit von den grossen Tech-Unternehmen verringern. Auch die Befragten fänden es sinnvoll, eigene KI-Tools zu entwickeln, um die Abhängigkeit zu verringern.»

Was wäre aus Ihrer Sicht das Worst-case-Szenario für den Journalismus?
Vogler
: «Wenn der Fokus einseitig auf Effizienz liegt und Qualitätsaspekte vernachlässigt werden. Dazu zählen nicht nur Fehler in der Berichterstattung, sondern auch eine zunehmende Abhängigkeit von Technologieanbietern. Unternehmen sollten daher bei der Implementierung von KI zugleich in die Ressource ‚Mensch‘ investieren, um Qualitätsdefizite und Abhängigkeiten möglichst zu vermeiden.»

Welche Möglichkeiten haben die Medienhäuser in Zeiten massiver Sparrunden, um teure KI-Infrastrukturen aufzubauen?
Daniel Vogler: «Mehr Kooperationen innerhalb der Branche wären hier durchaus denkbar. Viele der befragten Journalistinnen und Journalisten sehen dies so. Zugleich ist uns jedoch bewusst, dass gerade solche Initiativen in der Praxis schwer umzusetzen sind.»

Sie haben Medienschaffende zu KI befragt, die Ergebnisse sind im Jahrbuch «Qualität der Medien» erschienen. Wo klaffen Anspruch und Realität im Umgang mit KI aus Sicht der Journalisten und Journalistinnen am weitesten auseinander?
Vogler
: «Insgesamt zeichnen unsere Daten ein ambivalentes Bild. Einerseits nutzt eine klare Mehrheit der Schweizer Journalistinnen und Journalisten KI-Tools und empfindet sie als hilfreich. Andererseits werden weder Effizienz- noch Qualitätsgewinne wirklich positiv bewertet. Die Mehrheit der Befragten berichtet zudem, es gäbe in ihrer Redaktion beim KI-Einsatz keine systematischen Massnahmen der Qualitätssicherung oder dass sie diese nicht kennen. Auch die Auswirkungen auf die Medienqualität werden überwiegend kritisch gesehen. Befürchtet wird etwa, dass der KI-Einsatz im Schweizer Journalismus die Verbreitung von Falschinformationen begünstigt oder zur Angleichung von Inhalten führt. Diese kritische Sichtweise findet man nicht nur bei Medienschaffenden, sondern auch beim Publikum.»

In Deutschland existiert mit dem «AI for Media Network» bereits ein Zusammenschluss. Warum hinkt die Schweiz hier hinterher?
Daniel Vogler: «Das ‚AI for Media Network‘ ist eine spannende Initiative, gerade weil der Fokus auf Medienqualität beim Einsatz von KI liegt. Ob die Schweiz hier tatsächlich hinterherhinkt, lässt sich aber schwer sagen. Derzeit wird intensiv über KI diskutiert, beispielsweise in Workshops, auf Podien und bei Branchenevents. Ein übergeordnetes Netzwerk ist aber hierzulande noch nicht daraus entstanden.»

Die Medien-User sind gegenüber KI im Journalismus skeptisch. Könnte der KI-Einsatz das ohnehin schon angeschlagene Medienvertrauen weiter untergraben?
Vogler: «Diese Gefahr besteht tatsächlich – insbesondere dann, wenn sich vermehrt Fehler einschleichen, die auch vom Publikum wahrgenommen werden. In unserer Studie geben 15% der befragten Medienschaffenden an, dass KI in ihrer Redaktion bereits zu Fehlern geführt hat. Erschwerend kommt hinzu, dass viele Journalistinnen und Journalisten wahrnehmen, dass sie kaum Zeit haben, KI-Inhalte zu überprüfen. Konkrete Beispiele wurden bislang, abgesehen von wenigen Ausnahmen, jedoch kaum öffentlich diskutiert. Sollten solche Fehler zunehmen, droht das Vertrauen in die Berichterstattung – und in den Journalismus insgesamt – Schaden zu nehmen.»