Gemeinsame Pressemitteilung • 13.11.2025

Medien Triennale Südwest 2025 - Media x AI x Society

Zwischen Deepfakes und Datenräumen - Impulse für Europas digitale Zukunft

Die diesjährige Medien Triennale Südwest brachte am gestrigen Mittwoch rund 100 Fachleute aus Medien, Politik, Wissenschaft und Wirtschaft im Innovation Center der Universität des Saarlandes zusammen. Im Mittelpunkt standen die Auswirkungen von Künstlicher Intelligenz auf Medienpraxis, gesellschaftliche Verantwortung und demokratische Meinungsbildung. Die Veranstaltung wurde organisiert von der Landesmedienanstalt Saarland (LMS), der Medienanstalt Rheinland-Pfalz und der Landesanstalt für Kommunikation Baden-Württemberg (LFK). Bereits am Vormittag boten Masterclasses praxisnahe Einblicke in aktuelle Herausforderungen. Philipp Dewald (Detesia) und Robert Hecklau (funk) zeigten Strategien zur Erkennung und Einordnung von Deepfakes. Maria Dimartino (jur§vita) erläuterte, wie Medienschaffende KI-Tools rechtssicher in ihren Arbeitsalltag integrieren können.

Nach der Begrüßung durch Ruth Meyer (LMS), Dr. Marc Jan Eumann (Medienanstalt Rheinland-Pfalz) und Dr. Wolfgang Kreißig (LFK) beschäftigte sich Prof. Dr. Ingmar Weber von der Universität des Saarlandes in seiner Keynote „Societal Computing: Daten, Medien und Demokratie“ mit der Frage, wie man Nutzungsdaten sozialer Medien sammeln kann, um Phänomene wie Social-Media-Sucht zu verstehen. Außerdem ging er der Fragestellung nach, wie man KI in der politischen Bildung einsetzen kann, um Toleranz gegenüber anderen Meinungen zu stärken und das Selberdenken trotz KI-Einsatzes zu fördern („Slow AI“).

Im anschließenden Summit „Interfaces of Influence - Maschine × Mensch × Medien“ analysierte Prof. Dr. Christoph Sorge (Universität des Saarlandes) das Phänomen Deepfake. Der Vortrag zeigte Abgrenzungsprobleme auf und lud zur Diskussion über die Frage ein, wo ein Deepfake beginnt. Dr. Sophie Kerstan (Universität Freiburg) thematisierte das Zusammenspiel von Menschen und Künstlicher Intelligenz unter den Gesichtspunkten Kontrolle und Vertrauen auch im redaktionellen Medienumfeld.

Der zweite Themenblock „Society in Code – Prüflabore und gesellschaftliche Verantwortung“ beleuchtete Transparenz und Erklärbarkeit von KI. Dr. Matthieu Deru zeigte, wie technische Explainable-AI-Ansätze zur Nachvollziehbarkeit von Entscheidungen beitragen können. Dr. Stefan Schaffer (DFKI) stellte das Projekt PABeLA vor, das eine Art KI-TÜV für die systematische Auswertung der Antworten KI-basierter Dienste entwickelt.

Der Nachmittag stand im Zeichen europäischer Perspektiven auf Daten, Märkte und Souveränität. Unter der Überschrift „Data × Minds × Market - Immer diese Daten!“ erläuterte Dr. Christian Müller (DFKI) in seinem Impuls „CERN 4 AI“, eine europäische Initiative für gemeinsame, öffentliche KI-Infrastrukturen, die skalierbare Rechenressourcen, offene Basis-Modelle und föderierte Datenräume zusammenführt. Ziel ist es, die Entwicklung von KI-Systemen zu ermöglichen, die transparent, nachvollziehbar und kontrollierbar sind – im Gegensatz zu den weitgehend intransparenten „Black-Box“-Modellen kommerzieller Anbieter.

Anschließend diskutierten Dr. Dirk Petrat, Dr. Matthias Försterling (VAUNET) und Dr. Christian Müller (DFKI) über Wege, die digitale Souveränität und Wettbewerbsfähigkeit des Medienstandorts Deutschland mit Leben füllen. Ziel könnte ein dezentrales, KI-integriertes Datenökosystem sein, ein „Datenraum Medien“, in dem auch von kleineren Medienhäusern die Lizenz- und Verwertungsmodelle zur Monetarisierung ihrer Daten und Inhalte festgelegt und somit eine Refinanzierung von Journalismus ermöglicht werden kann.

Auf einem Marktplatz der Ideen präsentierten Forschungseinrichtungen, Hochschulen und Medieninstitutionen ihre aktuellen Projekte und Ansätze zum Einsatz von Künstlicher Intelligenz und stellten technische Innovation am Schnittpunkt Mensch und Maschine vor. Vertreten waren das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das Institut für Europäisches Medienrecht (EMR), die Hochschule für Technik und Wirtschaft des Saarlandes (htw saar), das Interdisciplinary Institute for Societal Computing (I2SC), die LFK, die LMS sowie die Medienanstalt Rheinland-Pfalz mit der EU-Initiative klicksafe. 

Ruth Meyer (LMS): „Entscheidend ist, dass wir als Medienaufsicht gemeinsam mit Forschung und Praxis Vertrauen in digitale Systeme schaffen. KI kann Vielfalt stärken, wenn sie nachvollziehbar genutzt wird. Dafür setzen wir uns als Medienanstalten ein. Eine zentrale Rolle spielen dabei die Daten. Europa braucht eigene Datenräume, die Qualität, Transparenz und digitale Souveränität sichern und damit ein Fundament schaffen, auf dem demokratische Prozesse geschützt und widerstandsfähig ablaufen können.“

Dr. Wolfgang Kreißig (LFK): „Der heutige Tag hat gezeigt, dass wir digitale Souveränität im Umgang mit KI-Systemen nur dann erreichen, wenn Regulierung klar strukturiert ist. Wir brauchen eindeutige Zuständigkeiten zwischen EU, Bund und Ländern, um Verantwortung wahrzunehmen und unsere Werte auch im Digitalen wirksam zu schützen.“

Dr. Marc Jan Eumann, Direktor der Medienanstalt Rheinland-Pfalz, sagt: „Immer mehr KI-Tools fluten unsere Bildschirme mit Deep Fakes und Desinformationen. Gerade Kinder und Jugendliche müssen vor diesen Gefahren im Netz geschützt werden. Unsere EU-Initiative klicksafe hat praxisnahe Tipps für Eltern, Lehrkräfte und Pädagog*innen, um die Medienkompetenz junger Menschen zu stärken.“

Weitere Informationen zur Veranstaltung sowie Fotos sind auf der Website der LMS abrufbar. 

Die Medien Triennale Südwest 2026 findet am 25.09. in der Kammgarn in Kaiserslautern statt.

Kontakt

Dominik Rudolph
Landesanstalt für Kommunikation
Pressesprecher
E-Mail: presse@lfk.de

Eine Veranstaltung von: