Vertrauen(sverlust) in journalistische Arbeit durch KI? Ruth Meyer und Donata Dröge im Austausch
Meyer: Die Ergebnisse des Transparenz-Checks KI zeigen uns, dass viele Befragte negative Auswirkungen durch KI-Einsatz im Journalismus befürchten. Nehmen Sie das in Ihrer Arbeit auch wahr?
Dröge: Dass mithilfe von KI mit geringem Aufwand täuschend echte Bild- und Toninhalte generiert werden können, verunsichert viele. Desinformation in Umlauf zu bringen, wird durch KI immer einfacher, und es steht zu befürchten, dass dadurch auch das Vertrauen in Medien weiter sinkt.
Für uns Medienschaffende ist diese Entwicklung in mehrfacher Hinsicht herausfordernd: Es ist noch anspruchsvoller als bisher, Quellen und Informationen zu überprüfen, gleichzeitig geraten unsere Geschäftsmodelle unter Druck. Hinzu kommt die Sorge um den eigenen Job, weil KI einzelne Aufgaben übernehmen könnte, die bisher von Menschen gemacht werden.
Umso wichtiger ist es, sich auf die journalistischen Kompetenzen zu besinnen: vor Ort mit Menschen zu sprechen, ihnen zuzuhören und aus den recherchierten Informationen redaktionelle Beiträge zu entwickeln. KI kann uns dabei helfen, weniger Zeit mit einfachen, repetitiven Aufgaben zu verbringen und uns stärker auf den Kern unseres Berufs zu konzentrieren.
Wir sehen natürlich auch, dass sich KI rasend schnell verändert, in zwei Jahren sähen die Ergebnisse des Transparenz-Checks vermutlich ganz anders aus. Wie begleiten denn die Medienanstalten diesen Prozess?
Meyer: Tatsächlich ist es eine große Aufgabe, mit dem Tempo und der Tiefe der Entwicklungen Schritt zu halten. Wir sehen als Medienanstalten dabei zum einen das erhebliche Potenzial, das Künstliche Intelligenz (KI) als Schlüsseltechnologie für die Medien birgt und begleiten diese innovativen Entwicklungen im engen Austausch mit Veranstaltern und Verbänden sowie mit Wissenschaft und Forschung. Als Aufsichtsbehörden haben wir natürlich genauso den Impact im Blick, den KI-Anwendungen auf Medienvielfalt und öffentliche Meinungsbildung haben und betrachten diesen durchaus auch kritisch. Wenn halluzinierte und bewusst und täuschend echt gefakte Inhalte den Nachrichtenraum fluten, gefährdet KI-getriggerte Desinformation die freie Meinungsbildung.
Das zentrale Stichwort in diesem Zusammenhang lautet Vertrauen: Ziel aller Transparenzbemühungen muss es sein, die Vertrauenswürdigkeit von Medieninhalten trotz des zunehmend stattfindenden KI-Einsatzes – in Redaktionen genauso wie bei der Selektion und Distribution von Inhalten – nachvollziehbar zu halten. Das betrifft gewisse Kennzeichnungspflichten gegenüber den Adressat:innen, das betrifft detailliertere Offenlegungspflichten gegenüber Aufsichtsbehörden und Wissenschaft, es berührt aber auch die notwendige Vermittlung von KI-Kompetenzen in der Breite unserer Gesellschaft.
Wir Medienanstalten kümmern uns darum, dass der Einsatz von KI die Vielfalt in den Medien nicht beeinträchtigt und die Unterschiedlichkeit von Meinungen und Perspektiven trotz allem sichtbar bleibt. Medienrechtliche Prinzipien wie Transparenz und Diskriminierungsfreiheit sind auch auf KI anzuwenden. Wir achten ebenso auf die Einhaltung Journalistischer Sorgfaltspflichten, die unvermindert auch bei KI-Einsatz gelten Die „Letztverantwortung Mensch“ kann nicht an eine Technologie delegiert werden.
Vielfalt stärken, Verantwortung regeln und Vertrauen wahren – auf diese Formel kann man das Prinzip der Regulierungs- und Bildungsarbeit der Medienanstalten bringen.
Meyer: KI ist im Journalismus schnell sehr wichtig geworden. Mich würde interessieren, wie der Einsatz von KI bei RTL konkret gehandhabt wird?
Dröge:Bei RTL News sehen wir KI als ein Werkzeug an, mit dem wir unsere journalistischen Produkte verbessern und deren Herstellung effizienter gestalten können. Dabei haben wir aber auch die Risiken im Blick und qualifizieren unsere Mitarbeitenden für einen verantwortungsvollen Umgang mit dieser Technologie. Hierfür haben wir Leitlinien formuliert. Alle Grundsätze der journalistischen Sorgfaltspflicht gelten für uns auch im Umgang mit KI-Tools: wir prüfen die Informationen, die wir veröffentlichen und legen in unserer Berichterstattung großen Wert darauf, die Realität wahrheitsgemäß darzustellen.
KI-Tools kommen bei uns an verschiedenen Stellen im Produktionsprozess zum Einsatz, z.B. bei der Recherche, für Übersetzungen oder um verschiedene Versionen von Texten zu erstellen. Wichtig ist, dass dabei immer ein Mensch die redaktionelle Verantwortung hat und über die Veröffentlichung von journalistischen Inhalten entscheidet. Dieses Vorgehen machen wir für unsere Nutzenden transparent.
Dröge:Was passiert diesbezüglich auf deutscher und auf europäischer Ebene?
Meyer: Im Bereich der Infrastruktur für den Journalismus bewegt sich nicht erst seit dem europäischen Vorhaben GAIA-X sehr viel. Aufgrund der stetig wachsenden Bedeutung der Datenökonomie für den Journalismus spielen Datenräume eine zunehmende Rolle, um qualitativ aufbereitete Informationen geschützt verfügbar zu halten. Ein Datenraum ermöglicht die vertrauensvolle Umsetzung datenbasierter Anwendungen und Geschäftsmodelle, wobei allen Akteuren ein hohes Maß an Flexibilität und Souveränität geboten wird. Ebenso gibt es Bestrebungen, mediengattungs-übergreifende Plattformen für Public-Value-Inhalte einzurichten.
Der Bedarf an europäischen und deutschen Modellen und Anwendungen ist enorm. Besonders hinsichtlich Datensouveränität und Urheberschaft besteht die Notwendigkeit, Daten besser zu schützen und sicher auszutauschen.
Dröge: Wir haben viel über Vertrauen und Verantwortung gesprochen – diese Themen treiben auch die Branche um. Wie lässt sich die Position von Journalist:innen schützen?
Meyer: Von der automatisierten Berichterstattung über fortschrittliche Datenanalyse bis hin zur gezielten Personalisierung von Inhalten – KI-Technologien sind längst dabei, den Alltag von Journalistinnen und Journalisten zu transformieren. Erfreulicherweise haben die meisten Redaktionen, Verlage und Verbände recht zügig interne Guidelines verfasst, die den Rahmen für einen verantwortungsvollen KI-Einsatz stecken. Diese sinnvolle Selbstregulierung ist natürlich an einem klaren Rechtsrahmen für die journalistische Arbeit auszurichten und durch den Aufbau von KI-Kompetenz sowie Kooperationen – etwa mit Politik und Regulierung, Wissenschaft und Forschung sowie KI-Start-ups – zu flankieren. Um hier noch mehr ins ´Doing´ zu kommen, die verantwortungsvolle Nutzung von KI-Technologien sicherzustellen und journalistische Qualitätsstandards zu wahren, braucht es jetzt vor allem den weiteren Austausch der unterschiedlichen Player mit der Medienbranche.
Künstliche Intelligenz ist nicht das Ende der Wahrheit und ersetzt weder den wachen Instinkt noch die persönliche Recherchearbeit in den Redaktionen. Im Gegenteil: Bei verantwortungsvollem und transparentem Einsatz kann sie ein hervorragendes qualitätssicherndes und effizienzsteigerndes Werkzeug in diesem Prozess sein. Es sind aber Vorkehrungen mitzudenken, die es erlauben, für die Inhalte weiterhin und in gleichem Umfang Verantwortung zu übernehmen. Diese können in Kontrollmechanismen bestehen, in denen die Journalistinnen und Journalisten eine exponierte Stellung einnehmen und die Inhalte vor ihrer Verbreitung überprüfen müssen.
Der Einsatz von KI ändert ja nichts an der grundsätzlichen Inhaltsverantwortung. Sie ist und bleibt bei den die KI-einsetzenden Medienanbietern. Gerade in Anbetracht der Fülle von zunehmend KI-generierten Informationen ist sorgsamer Journalismus für das Funktionieren von Demokratien essentieller denn je: Fakten sauber recherchieren, Meinungen kontrovers nebeneinanderstellen und Themen auch gegen den scheinbaren Trend aufgreifen, ist journalistisches Kerngeschäft. Dieser Verantwortung gerecht zu werden, bietet den besten Schutz für die Position von Journalistinnen und Journalisten.
Meine Sorge gilt eher der Refinanzierbarkeit journalistischer Arbeit. Wenn KI-Systeme sich journalistischer Inhalte bedienen oder Plattformen Nachrichten lesbar machen, ohne zu den Sendern bzw. Verlagen zu verlinken, wird nicht KI, sondern Geldmangel den Journalismus bedrohen.
Meyer: Wie können Redaktionen mit diesem drohenden Vertrauensverlust umgehen?
Dröge: Aus unserer Sicht sind zwei Dinge wichtig: Hohe journalistische Qualität und starke, wiedererkennbare Medienmarken. Die Menschen werden sich immer weniger darauf verlassen, dass das, was sie sehen, echt ist – umso wichtiger ist es, dass sie den Absendern vertrauen.
Wir sehen, dass Menschen gerade in Krisenzeiten Orientierung bei den starken Newsmarken von RTL und ntv suchen. Um diesem Vertrauen bestmöglich jeden Tag gerecht zu werden, investieren wir viel: In Ausbildung und Verifizierung, Berichterstattung durch Reporter-Teams vor Ort und Förderung von Medienkompetenz in verschiedenen Projekten. Das ist nicht nur unser eigener Qualitätsanspruch, sondern wird auch durch die Medienaufsicht und freiwillige Branchenstandards abgesichert.
Das alles ist aber gleichzeitig ein Wettbewerbsnachteil in einer Informationslandschaft, die zunehmend von Tech-Plattformen dominiert wird. Um unsere gesellschaftliche Verantwortung weiter wahrnehmen und den Menschen auch in Zukunft hochwertige journalistische Inhalte zur Verfügung stellen zu können, brauchen wir als Medien Rahmenbedingungen, die sicherstellen, dass unsere Inhalte auffindbar sind, und die uns digitale Wertschöpfung ermöglichen.
Hinweis: Das Austauschgespräch wurde schriftlich geführt.
Seit dem 1. Mai 2020 leitet Ruth Meyer die Landesmedienanstalt Saarland (LMS). Innerhalb der Gemeinschaft der Landesmedienanstalten ist sie die Themenbeauftragte für Künstliche Intelligenz.
Von 2012-2020 war Ruth Meyer Mitglied des saarländischen Landtags, wo sie die Aufgabe der innenpolitischen Sprecherin innehatte sowie für Bildungs- und Medienthemen verantwortlich war. Zuvor übte sie verschiedene Leitungsfunktionen in der Verwaltung aus. Ruth Meyer war während und nach ihrem Studium über viele Jahre freiberuflich für Organisationen und Unternehmen aus der Digital- und Medienbranche tätig und war Redakteurin eines Campusradios. Sie hat ein Magisterstudium in Erziehungs-, Politikwissenschaft und Sozialpsychologie sowie ein Studium der Sprechwissenschaft absolviert.
Donata Dröge ist Journalistin und Projektmanagerin bei RTL News, hat zuvor lange für den Nachrichtensender ntv als Reporterin im In- und Ausland gearbeitet und befasst sich seit mehreren Jahren mit Organisationsentwicklung und Transformationsprozessen. Bei RTL News ist sie verantwortlich für journalistische Projekte und Nachhaltigkeit und Mitglied des Kernteams „Künstliche Intelligenz in der journalistischen Produktion“