Jump to content
Illustration Promotionsvorhaben Phillip Engelhardt
Illustration Promotionsvorhaben Phillip Engelhardt

Kommunikative Konstruktion von alternativen KI-Zukünften bei Algorithm Watch und der Mozilla Foundation

Promotionsvorhaben von Phillip Engelhardt

KI ist eine Technologie, die hinsichtlich ihres Anwendungsspektrums und ihrer Transformationspotenziale ständig neu emergiert und bedeutungsflexibel bleibt. Ein großer Teil der Diskursaktivität rund um die Zukunft von KI konzentriert sich deswegen darauf, unausgeschöpften semantischen Spielraum kommunikativ mit Bedeutungen zu erschließen. In diesem Prozess des sense-makings konkurrieren diverse ökonomische, politische und technologische Interessen um Deutungshoheit.

Eine gesonderte Rolle spielen dabei Nichtregierungs- (NGOs) und Nicht-gewinnorientierte Organisationen (NPOs), deren Bedeutungskonstruktionen sich dadurch auszeichnen, dass sie dezidiert zivilgesellschaftliche bzw. öffentliche Interessen vertreten. Führende, kommerzielle Large Language Models (LLMs) von Unternehmen wie OpenAI, Anthropic, Google DeepMind, Meta, DeepSeek, XAI und Mistral eröffnen beispielsweise an der Schnittstelle zur Öffentlichkeit verschiedene Problem- und Potenzialbereiche. Die (Re-)Produktion von Falschaussagen und Täuschungen sowie unethischem, anti-demokratischem und diskriminierendem Antwortverhalten gefährdet den gesellschaftlichen Zusammenhalt sowie den demokratischen Willensbildungsprozess. Gleichzeitig bieten LLMs neue Chancen zur politischen Partizipation, wissenschaftlichen Weiterbildung und Optimierung öffentlicher Verwaltungsprozesse.

Das Dissertationsprojekt untersucht, welche KI-Zukünfte von NGOs und NPOs vorgestellt werden, wie diese Zukunftsszenarien entwickelt werden und welche Rolle die Öffentlichkeit darin spielt. Als Fallbeispiele dienen dem Projekt die Organisationen Algorithm Watch und Mozilla Foundation. Die Arbeit fokussiert besonders den Vergleich solcher Szenarien, die als Alternativen zu kommerziellen KI-Zukünften entwickelt und kommuniziert werden und die Regulierung privatisierter KI-Modelle fordern oder die Entwicklung von KI als öffentlichem Eigentum fördern. Methodische Grundlage des Projekts ist eine qualitative Analyse narrativer Expert*inneninterviews und diverser Publikationsmaterialien (Websites, Newsletter, Positionspapiere, Handlungsempfehlungen) im Stile der Grounded Theory. Theoretisch begreift die Arbeit alternative KI-Zukunftsszenarien als Ergebnis eines kommunikativen Konstruktionsprozesses.

Kontakt

Gefördert durch DFG (Deutsche Forschungsgemeinschaft)FWF Österreichischer Wissenschaftsfonds

Fragen beantwortet:

Prof. Dr. Andreas Hepp
ZeMKI, Zentrum für Medien-, Kommunikations- und Informationsforschung
Universität Bremen
Tel: +49 421 218-67620
Assistenz Frau Schober: +49 421 218-67603
E-Mail: andreas.hepp@uni-bremen.de

Uni BremenZeMKI Uni BremenLeibniz Instituts für Medienforschung | Hans Bredow InstitutUni GrazUni GrazUni Wien