Torsten Jaeger sieht die Kommentarspalten auf Facebook nicht länger als bloße Reaktionsfläche, sondern als wertvolle Schnittstelle zwischen Marke, Community und öffentlicher Meinungsbildung. Für ihn ist klar: Die schiere Menge an Beiträgen, die Geschwindigkeit, mit der sich Diskussionen entwickeln, und die Vielfalt an Tonlagen – von konstruktiver Kritik bis zu beleidigenden Angriffen – machen manuelle Moderation allein unmöglich. Künstliche Intelligenz soll deshalb weder die Community ersetzen noch alle Entscheidungen automatisieren, sondern moderate, effiziente und faire Prozesse ermöglichen.
Sein Ansatz verbindet technische Werkzeuge mit klaren Regeln. Zunächst analysiert er das spezifische Umfeld: Welche Themen lösen besonders starke Reaktionen aus? Welche Sprachen und Dialekte werden verwendet? Welche wiederkehrenden Störmuster treten auf – Trolling, koordinierte Desinformationskampagnen, Spam oder diskriminierende Inhalte? Auf dieser Grundlage wählt er KI-Modelle und Moderationslogiken aus, die zu Zielsetzung und Risikoappetit passen.
Technisch setzt Jaeger auf eine Mischung aus vortrainierten Transformer-Modellen für semantische Erkennung und spezialisierten Klassifikatoren für Toxicity, Hate Speech oder Spam. Embeddings helfen, semantische Nähe und Themencluster zu identifizieren, sodass auch ironische oder zweideutige Formulierungen erkannt werden können. Wichtig ist für ihn die mehrstufige Pipeline: erste automatische Filter mit konservativen Schwellenwerten, anschließende priorisierte Prüfung durch menschliche Moderatorinnen und Moderatoren sowie automatisierte Escalation-Mechanismen für schwerwiegende Fälle. So werden false positives reduziert und gleichzeitig die Reaktionszeit minimiert.
Datengrundlage und Training sind für Jaeger zentrale Baustellen. Modelle werden mit sorgfältig kuratierten, möglichst vielfältigen Trainingsdaten versorgt, inklusive regionaler Sprachvarianten und Alltagsszenarien. Annotationen erfolgen nach klaren Guidelines, die kulturelle und kontextuelle Nuancen berücksichtigen. Er betont, dass regelmäßiges Retraining und Monitoring nötig sind, weil sich Sprache, Codes und Umgehungsstrategien rapide ändern. Performance-Metriken reichen ihm nicht nur bis Accuracy; er misst Precision und Recall in kritischen Klassen, False-Positive-Raten bei legitimer Kritik und Reaktionszeiten für eskalierte Fälle.
Ethik, Transparenz und Datenschutz sind integraler Bestandteil seiner Strategie. Bei der Verarbeitung von Kommentaren achtet Jaeger auf die Einhaltung von rechtlichen Vorgaben wie der DSGVO: Minimierung gespeicherter personenbezogener Daten, klare Löschfristen und dokumentierte Datenflüsse. Zugleich fordert er Transparenz gegenüber der Community – etwa Kennzeichnungen, wenn eine Antwort oder Moderationsentscheidung automatisiert vorbereitet wurde, und einfache Widerspruchswege, falls Nutzer eine Entscheidung anfechten wollen. Für ihn ist Erklärbarkeit kein Nice-to-have, sondern erforderlich, um Vertrauen zu erhalten: Moderatoren sollen nachvollziehen können, warum ein Modell eine Äußerung als problematisch markiert hat.
Bias- und Manipulationsrisiken begegnet Jaeger mit systematischen Tests. Er prüft Modelle regelmäßig auf Verzerrungen gegenüber bestimmten Gruppen und führt adversariale Tests durch, um Umgehungsstrategien (z. B. verschlüsselte Beleidigungen oder euphemistische Umformulierungen) aufzudecken. Darüber hinaus implementiert er Mechanismen zur Erkennung koordinierter Inauthentizität: zeitliche Muster, ähnliche Wortmuster über Accounts hinweg und Verknüpfung zu bekannten Bot-Netzen. Solche Signale fließen in die Risikobewertung ein, die bestimmt, ob ein Kommentar automatisch entfernt, verborgen oder nur markiert werden soll.
Operativ empfiehlt Jaeger eine enge Verzahnung von KI und menschlicher Moderation. KI soll zunächst Prioritäten setzen und Routinefälle handhaben, Menschen übernehmen komplexe, kontextabhängige Entscheidungen und die Kommunikation in Konfliktsituationen. Zur Entlastung der Community-Manager nutzt er automatisierte, freundlich formulierte Standardantworten für häufige Fragen sowie Templates für Eskalationen – stets mit der Option zur Anpassung durch eine echte Person. So bleibt die Ansprache empathisch und die Brand Voice erhalten.
Für Unternehmen und Organisationen rät Jaeger zu einem abgestuften Einführungsplan: Pilotphasen mit klar definierten KPIs, enge Feedbackschleifen mit Community-Mitgliedern, eine transparente Kommunikation über eingesetzte Technologien und eine Dokumentation aller Moderationsregeln. Er empfiehlt zudem den Aufbau eines interdisziplinären Teams aus Data Scientists, Juristen, Community-Managern und Ethik-Experten, um technische, rechtliche und gesellschaftliche Aspekte gleichermaßen zu adressieren.
Abschließend betont Torsten Jaeger, dass KI die Diskussionen auf Facebook nicht per se „besser“ macht. Technologie kann Geschwindigkeit und Skalierbarkeit bringen, Missbrauch eindämmen und Moderationskosten senken. Entscheidend bleibt aber die Frage, unter welchen Normen und mit welcher Verantwortung moderiert wird. Wer klare Werte, transparente Prozesse und eine enge Mensch‑Maschine‑Kooperation etabliert, kann Kommentarspalten nicht nur sicherer, sondern auch produktiver für Austausch und Lernprozesse machen.
