“Es besteht ein dringender Bedarf an der Moderation von Inhalten in den sozialen Medien und ganz allgemein in den Online-Medien”, sagte Sundar, der auch Mitglied des Instituts für Computer- und Datenwissenschaften der Penn State ist. “In den traditionellen Medien haben wir Nachrichtenredakteure, die als Torwächter dienen. Aber online sind die Tore so weit offen, dass es für Menschen nicht unbedingt machbar ist, diese Aufgabe zu übernehmen, insbesondere bei der Menge an Informationen, die generiert werden. Da sich die Branche zunehmend auf automatisierte Lösungen zubewegt, untersucht diese Studie den Unterschied zwischen menschlichen und automatisierten Inhaltsmoderatoren im Hinblick darauf, wie die Menschen auf sie reagieren.”

Sowohl menschliche als auch künstliche Redakteure haben Vor- und Nachteile. Menschen neigen dazu, genauer zu beurteilen, ob ein Inhalt schädlich ist, z. B. wenn er rassistisch ist oder möglicherweise zu Selbstverletzungen führen könnte, so Maria D. Molina, Assistenzprofessorin für Werbung und Öffentlichkeitsarbeit an der Michigan State University, die Erstautorin der Studie ist. Die Menschen sind jedoch nicht in der Lage, die großen Mengen an Inhalten zu verarbeiten, die heute online erzeugt und geteilt werden.
“Wenn wir über automatisierte Inhaltsmoderation nachdenken, stellt sich die Frage, ob Redakteure mit künstlicher Intelligenz die Meinungsfreiheit der Menschen einschränken”, so Molina. “Dies führt zu einem Zwiespalt zwischen der Tatsache, dass wir die Moderation von Inhalten brauchen, weil die Menschen all diese problematischen Inhalte teilen, und der Tatsache, dass die Menschen gleichzeitig über die Fähigkeit der KI zur Moderation von Inhalten besorgt sind. Letztendlich wollen wir also wissen, wie wir KI-Moderatoren entwickeln können, denen die Menschen vertrauen können, ohne die Meinungsfreiheit zu beeinträchtigen.”
Die Forscher fanden unter anderem heraus, dass das Vertrauen der Nutzer davon abhängt, ob die Anwesenheit eines KI-Inhaltsmoderators positive Eigenschaften von Maschinen hervorruft, wie z. B. ihre Genauigkeit und Objektivität, oder negative Eigenschaften, wie z. B. ihre Unfähigkeit, subjektive Beurteilungen über Nuancen in der menschlichen Sprache vorzunehmen.
Weitere Informationen: Maria D Molina et al, When AI moderates online content: effects of human collaboration and interactive transparency on user trust, Journal of Computer-Mediated Communication (2022). DOI: 10.1093/jcmc/zmac010







