ComAI Bots und Konfliktprävention: Von reaktiver zu proaktiver Moderation im politischen Diskurs auf Social Media
Promotionsvorhaben von Patrick Frey
Die (semi-)automatisierte Prävention von destruktiven interpersonellen Konfliktdynamiken in Onlinediskursen, die durch Phänomene wie toxische Sprache geprägt sein können, ist sowohl für Nutzer*innen als auch für Social Media Plattformen von hohem Nutzen. So heben bestehende Forschungsvorhaben hervor, dass dieser Ansatz eine skalierbare, zielgerichtete und kosteneffektive Moderation ermöglichen könnte, die Schaden von Nutzer*innen und Moderator*innen abwenden kann. Dem gegenübergestellt fungieren reaktive Moderationspraktiken, die zurzeit die vorherrschende Praxis auf Social Media darstellen, vielmehr als nachträgliche „Schadensbegrenzung“ . Demzufolge können selbst die vielversprechendsten reaktiven Moderationstools viele Nutzer*innen nicht vor einer Exposition gegenüber toxischen und diskriminierenden Inhalten schützen, die konstruktive politische Diskurse erschweren und insbesondere marginalisierte Gruppen aus Diskursen ausschließen können.
Auch wenn kommunikative KI (ComAI) neue Möglichkeiten zur Realisierung automatisierter proaktiver Ansätze eröffnet, sind Forschungsvorhaben hierzu bisher noch selten. Aufgrund dessen zielt meine Dissertation darauf ab, mithilfe von ComAI (bots) erste Ansätze für eine automatisierte, zuverlässige Prognose und proaktive Mitigation destruktiver interpersoneller Konflikte in Onlinediskursen zu entwickeln.
Zentral ist hierbei, dass die Interventionen einem transparenzorientierten Implementierungsansatz folgen sollen, der sich an den autonomiewahrenden Strategien menschlicher Moderator*innen und Mediator*innen orientiert. Es geht also nicht darum, Meinungsäußerungen durch die Interventionen einzuschränken, sondern Nutzer*innen frühzeitig freiwillige Deeskalationsangebote zu machen. Diese werden in kontrollierten Experimenten unter menschlicher Aufsicht getestet.
Zugleich bringt dieses Forschungsdesign eine Bandbreite an ethischen Spannungsfeldern mit sich, welche weiterführende Forschungsfragen aufwerfen. Dies beinhaltet die Untersuchung der Implikationen dieser Ansätze für die Meinungsfreiheit oder auch potenzielle Biases der genutzten KI-Modelle beispielsweise bei der Erkennung von toxischer Sprache. Dazu zählt ebenso die Unterscheidung zwischen konstruktiven und destruktiven Konflikten, da konstruktive soziale Konflikte Triebkräfte für gesellschaftlichen Wandel und Fortschritt sein können. Es ist somit bedeutsam, diese und weitere Aspekte im gesamten Forschungsprozess immer wieder zu reflektieren und einzubeziehen. Daher bildet ein reflexiver ethischer Rahmen den Ausgangspunkt meines gesamten Forschungsprozesses und des Designs der kommunikativen Interventionen.
Die Adressierung der benannten Themenbereiche erfordert einen ganzheitlichen Forschungsansatz, weshalb die folgenden Teilaspekte untersucht werden sollen:
- Entwicklung eines kohärenten ethischen Rahmenmodells zur Ermöglichung einer verantwortungsvollen
automatisierten Konfliktprävention und -intervention; - 3. Untersuchung des aktuellen Forschungstands zur Identifikation relevanter Forschungslücken;
Entwicklung und Vergleich von KI-basierten und weiteren Ansätzen zur Prognose von Konflikten; - Entwicklung und Untersuchung (semi-)automatisierter proaktiver ComAI Interventionen;
- Analyse der Reaktionen von Nutzer*innen auf die Interventionen, von Aneignungsprozessen und
(hybriden) Praktiken.
Kontakt
Fragen beantwortet:
Prof. Dr. Andreas Hepp
ZeMKI, Zentrum für Medien-, Kommunikations- und Informationsforschung
Universität Bremen
Tel: +49 421 218-67620
Assistenz Frau Schober: +49 421 218-67603
E-Mail: andreas.hepp@uni-bremen.de







