Human in the Loop – Wo liegen die Grenzen des KI-Einsatzes in der Audiobranche, und wer trägt die Verantwortung?
Die Audiobranche ist spürbar im Wandel. Hierzu trägt auch Künstliche Intelligenz (KI) bei, die als Schlüsseltechnologie der Zukunft sowohl erhebliches Potenzial als auch evidente Herausforderungen birgt. Dies gilt für die Veranstalter und Medienschaffenden genauso wie für die Medienvielfalt und öffentliche Meinungsbildung. Wir haben einen Vertreter der Audiobranche und eine Vertreterin der Medienregulierung gefragt: Wo liegen in Ihren Augen die Grenzen des KI-Einsatzes in der Audiobranche, und wer trägt die Verantwortung?
„Das Human-in-the-Loop-Prinzip ist seit jeher fester Bestandteil des Machine Learnings, sei es im Zuge der Annotation von Daten oder des Reinforcement-Learnings. Gerade beim Einsatz von KI im sensiblen Bereich der öffentlichen Meinungsbildung ist die Implementierung der menschlichen Letztverantwortung ebenso unverzichtbar. Um dem hohen, teilweise über Jahrzehnte gewachsenen Vertrauen von Nutzerinnen und Nutzern in Audio-Inhalte gerecht zu werden, müssen menschliche Kontrollen und Abnahmen in den Produktions- und Verbreitungsprozess integriert werden. Anbieter müssen journalistische Sorgfaltspflichten und Programmgrundsätze einhalten, welche unabhängig von der eingesetzten Technologie gelten und von den Medienanstalten im Rahmen ihres gesetzlichen Auftrags überprüft werden.
Daher hat die DLM in ihrem Positionspapier „KI und Medien – Vielfalt stärken, Verantwortung regeln, Vertrauen wahren“ festgelegt:
Der Gedanke der besonderen Verantwortung journalistisch-redaktioneller Medienangebote ist auf den Einsatz von KI zu übertragen. (Audio-)Medienschaffende müssen deshalb beim Einsatz von KI besondere Prüfpflichten und Anforderungen erfüllen, insbesondere um Manipulationen auszuschließen.
Die Auswahl, Zusammenstellung und Verbreitung KI-gestützter audiovisueller Angebote stellt eine redaktionelle Leistung dar, weshalb auch medienrechtlich für den Inhalt Verantwortung übernommen werden kann und muss.
Der Einsatz von KI ändert nichts an der grundsätzlichen Verantwortung für den Inhalt des Anbieters bzw. der Anbieterin. Für automatisierte und (rein) KI-generierte bzw. -manipulierte Inhalte besteht eine uneingeschränkte Haftung wie bei sonstigen redaktionellen, menschenverantworteten Veröffentlichungen. Die Verantwortung für KI-generierte Inhalte und Prozesse liegt bei den die KI einsetzenden Medienanbietern bzw. Redaktionen. Sie müssen deshalb durch Vorkehrungen sicherstellen, dass sie für die Inhalte weiterhin und in gleichem Umfang die Verantwortung übernehmen können. Das können Kontrollmechanismen vor der Inhalteverbreitung oder Ex-Post-Kontrollen sein. Bei Letzteren sind erhöhte Anforderungen zu stellen, um auszuschließen, dass menschliches Verhalten manipuliert und Menschen geschadet werden könnte.“
„Künstliche Intelligenz kann in vielerlei Hinsicht Audioinhalte und ihre Herstellung verbessern: sie erlaubt oft eine schnellere und einfachere Produktion und ermöglicht eine Individualisierung von Inhalten, die mit rein menschlichen Kapazitäten nicht zu erreichen ist. In einer digitalen Distributionsumgebung mit personalisierungsorientierten Algorithmen kann das für Auffindbarkeit und Nutzung von Inhalten ein entscheidender Vorteil sein. Die Grenze ist dort erreicht, wo KI menschliche Identität und Interaktion vortäuscht, um manipulierend auf Nutzerinnen und Nutzer einzuwirken. Dazu gehören insbesondere Deep Fakes oder Inhalte, die nicht einer redaktionellen Kuration entstammen.
Auch wenn durch immer besser werdende KI-Technologien ein Missbrauch nicht immer auszuschließen ist, so helfen doch etablierte Medienunternehmen, Künstliche Intelligenz mit Verantwortung einzusetzen: Durch eine vertrauenswürdige Absendermarke, einen reflektierten Umgang mit der Technologie durch interne Regeln und Werte sowie eine Transparenz gegenüber den Nutzerinnen und Nutzern.“
Bildrechte: RTL+ | LMS