Jump to content
P4 | Governance: Das „Private Ordering“ kommunikativer KI durch Unternehmenskommunikation und Unternehmensregeln
P4 | Governance: Das „Private Ordering“ kommunikativer KI durch Unternehmenskommunikation und Unternehmensregeln

P4 | Governance: Das „Private Ordering“ kommunikativer KI durch Unternehmenskommunikation und Unternehmensregeln

Wie funktioniert Content-Moderation bei Kommunikativer KI (ComAI)? Welche Probleme und Kontroversen müssen Technologieunternehmen dabei adressieren? Dieses Projekt untersucht Content-Moderation und Private Ordering —Regulierung durch Regeln privater Unternehmen anstelle staatlicher Regulierung — als zentrale Dimension dessen, wie neue Medien wie Communicative AI (ComAI) in der Praxis definiert und geprägt werden.

Die Entstehung neuer Technologien ist nicht nur ein technischer, sondern auch ein normativer Prozess: Unternehmen treffen folgenreiche Entscheidungen darüber, was ihre Produkte tun sollen und was nicht. Diese Entscheidungen können Teil breiterer öffentlicher Kontroversen werden. Wie sollten Systeme wie ChatGPT mit politischen Inhalten und potenzieller Desinformation umgehen? Wo verläuft die angemessene Grenze zwischen kreativer Inspiration und Urheberrechtsverletzung? Solche Fragen haben erhebliche Auswirkungen darauf, wie sich diese Medien letztlich etablieren und wie wir als Gesellschaft sie nutzen.

Vor diesem Hintergrund stellen wir in diesem Projekt zwei miteinander verbundene Fragen: Erstens, welche Regeln und Normen liegen dem Betrieb von ComAI-Systemen zugrunde? Zweitens, gelingt es öffentlichen Kontroversen und regulatorischen Maßnahmen, unternehmerische Entscheidungen wirksam herauszufordern oder neu zu gestalten?

Wir untersuchen diese Fragen anhand von vier Fällen — Alphabets Gemini, OpenAIs ChatGPT, Amazons Alexa und Mistral AIs Le Chat — die ausgewählt wurden, um Variation hinsichtlich Unternehmensgröße, geografischer Herkunft (USA vs. EU) und Anwendungstyp abzubilden.

Dabei kommen drei empirische Ansätze zum Einsatz: (1) die Analyse zentraler Kontroversen in der Medienberichterstattung, (2) die systematische Untersuchung von Nutzungsrichtlinien und Plattform-Guidelines sowie (3) die Analyse der Positionierung von Unternehmen innerhalb von Kontroversen durch ihre Unternehmenskommunikation.

Als Teil dieses Projekts erweitern wir zudem das Platform Governance Archive um eine eigene Sammlung, die die Richtlinien von ComAI- und GenAI-Produkten im Zeitverlauf dokumentiert und archiviert. Dies schafft eine wertvolle offene Ressource für die Forschungsgemeinschaft, die sich mit Platform Governance und der Entstehung von KI-Produkten befasst.

PUBLIKATIONEN:

VORTRÄGE:

Ermler, K., Katzenbach, C. (2026): Platform Goverance Archive: Forschungsdaten zu Regeln in Social Media und Generative AI. DGPuK Jahrestagung, Institut für Journalistik der Technischen Universität Dortmund.

Katzenbach, C., Ermler, K., Runge, L. (2025). To Ghibli or not to Ghibli? How Tech Companies Set Normative Standards on the Use of Generative Artificial Intelligence for Creative Practices. GenAI & Creative Practices: Past, Present, and Future, University of Amsterdam, Amsterdam.

Katzenbach, C., Ermler, K., Runge, L. (2025). Content Moderation, next Level? Emergence of Platform Governance from Social Media to Generative AI. PlatGovNet 2025, Online.

Gefördert durch DFG (Deutsche Forschungsgemeinschaft)FWF Österreichischer Wissenschaftsfonds

Fragen beantwortet:

Prof. Dr. Andreas Hepp
ZeMKI, Zentrum für Medien-, Kommunikations- und Informationsforschung
Universität Bremen
Tel: +49 421 218-67620
Assistenz Frau Schober: +49 421 218-67603
E-Mail: andreas.hepp@uni-bremen.de

Uni BremenZeMKI Uni BremenLeibniz Instituts für Medienforschung | Hans Bredow InstitutUni GrazUni GrazUni Wien