Wir hatten die Freude, mit Friedrich Moser zu sprechen, dessen Dokumentarfilm „How to Build a Truth Engine" wir auf der diesjährigen Doxumentale zeigen durften. Gemeinsam erkundeten wir die Grenzen der Fakten im Kampf gegen Desinformation, die neurologischen Abkürzungen unseres Denkens – und die zentrale Rolle von Medienkompetenz als demokratische Widerstandskraft in einer digital überreizten Welt.
Friedrich Moser ist ein österreichischer Dokumentarfilmer. In How to Build a Truth Engine, gezeigt bei der diesjährigen Doxumentale, geht er der Frage nach, warum Fakten allein unsere Überzeugungen nicht verändern – und wie Desinformation genau dort gedeiht, wo die Funktionsweise unseres Gehirns auf die Logik digitaler Plattformen trifft. Sein Film eröffnet eine hochaktuelle Auseinandersetzung über Wahrheit, Manipulation und die Widerstandskraft der Demokratie im digitalen Zeitalter.
Friedrich Moser: Mein Film begann ursprünglich als Projekt über automatisiertes Faktenchecken. Dann kam investigativer Journalismus ins Spiel. Einige der Entwickler, die an Software für automatisiertes Fact-Checking gearbeitet haben, sagten zu mir:
„Du musst mit den Neurowissenschaftler*innen sprechen, mit denen wir bei anderen Projekten zusammenarbeiten – denn alle Fakten der Welt werden niemanden davon überzeugen, eine Verschwörungstheorie loszulassen, wenn er oder sie einmal daran glaubt.“
Es geht also im Kern darum, wie unser Gehirn funktioniert.
Mein erstes Gespräch mit einer der Neurowissenschaftler*innen im Film – Zahra Aghajan von der UCLA – war ein Zoom-Call. Und dieses Gespräch hat mein Verständnis für das Problem grundlegend verändert – und damit auch die Richtung des Films.
Dass wir so anfällig sind für Desinformation, Fake News und Verschwörungserzählungen, liegt an der Art und Weise, wie unser Gehirn Informationen verarbeitet. Wir nehmen über unsere Sinne Eindrücke aus der Welt auf und bauen daraus ein inneres Modell der Realität. Dieses Modell wird dann – im Idealfall – mit der äußeren Realität abgeglichen: stimmt es oder stimmt es nicht?
Wenn dieser Informationsfluss – und damit auch unsere Fähigkeit, Realität zu überprüfen – stark eingeschränkt wird, zum Beispiel auf nur wenige, rein digitale Kanäle, entsteht ein verzerrtes Weltbild in unserem Kopf. Und genau das macht uns so anfällig.
Ein weiterer Aspekt hat mit einer Fähigkeit zu tun, die unserem Gehirn evolutionsbiologisch einen Vorteil verschafft hat: Wir sind extrem schnell im Erkennen, Vervollständigen und Deuten von Mustern. Das Gehirn ist – aus Sicht der Neurowissenschaft – eine Mustererkennungs-, -vervollständigungs- und -vorhersagemaschine.
Doch genau diese Fähigkeit führt auch dazu, dass wir uns oft von falschen Mustern täuschen lassen. Und an diesem Punkt setzen Desinformation und Verschwörungserzählungen an.
Ein zentrales Problem lautet: Wie können wir Menschen vor schädlichen Inhalten und Desinformation schützen, ohne unser Informationsökosystem zu zensieren?
Es gibt verschiedene Ansätze. Einer besteht darin, Bewusstsein zu schaffen – dafür, warum wir so anfällig sind, und wie man damit sinnvoll umgehen kann. Ich unterscheide da zwei Ebenen:
Die erste ist das Wissen um die eigene Verletzlichkeit. Wenn wir wissen, dass wir manipulierbar sind, verhalten wir uns automatisch anders. Ich erkläre das gern so: Wenn man abends durch eine Stadt fährt oder läuft und weiß, dass es dort sicher ist, bewegt man sich ganz anders, als wenn man weiß, dass es dort gefährlich ist.
Wir müssen lernen, das Internet als einen unsicheren Ort zu begreifen. Da draußen gibt es viele Akteure, die nicht unser Bestes wollen.
Der zweite Punkt betrifft das Verständnis für die Funktionsweise der Medien – insbesondere der sozialen Medien. Technolog*innen, die an Tools zur Bekämpfung von Desinformation arbeiten, sagen uns ganz klar: Verlasst euch nicht allein auf die Software. Fördert Medienkompetenz – und ganz besonders soziale Medienkompetenz.
Deshalb habe ich gemeinsam mit anderen das gemeinnützige Open Circle Lab gegründet. Wir entwickeln Workshops und Materialien zur Vermittlung von Social-Media-Kompetenz. Das heißt: Die Teilnehmenden erleben in diesen Workshops ganz konkret – auch körperlich –, wie Algorithmen funktionieren.
Wir übersetzen also etwas, das im Verborgenen wirkt – und uns alle betrifft – in eine physische, erfahrbare Dimension. Und ich glaube, das verändert den Blick auf soziale Medien grundlegend. Zumindest hoffe ich das.
Der Journalismus steckt in einer echten Existenzkrise. Das liegt vor allem daran, dass fast das gesamte Geld im digitalen Raum zu Google und Facebook gewandert ist. Was ursprünglich ein ökonomisches Problem war, wird damit auch zu einem Effizienzproblem.
Guter Journalismus ist jedoch ein zentraler Bestandteil einer funktionierenden Demokratie – weil er als eine Art Spamfilter in unserem Informationssystem dient. Genau das ist die Aufgabe der Presse und der traditionellen Medien, die sich an Regeln und ethische Standards halten müssen. Soziale Medien unterliegen keinen solchen Regeln. Sie müssen nicht wahrhaftig sein, nicht faktenbasiert. Es geht dort allein um die Erzeugung von Emotionen.
Dass das so ist, liegt daran, dass sich soziale Medien ausschließlich über Werbung finanzieren.
Und um uns möglichst lange am Bildschirm zu halten, setzen sie gezielt auf emotionalisierte Inhalte – um uns möglichst viele Werbeanzeigen zeigen zu können.
Gleichzeitig, das will ich betonen, ist Social Media per se nichts Schlechtes. In einer globalisierten Gesellschaft, in der unsere Freund*innen nicht mehr nebenan wohnen, sondern über den ganzen Planeten verteilt sind, ist es eine großartige Möglichkeit, in Kontakt zu bleiben.
Ich bin also nicht gegen soziale Medien – aber ich finde, sie sollten gewissen Regeln unterliegen. Und sie sollten ähnlich behandelt werden wie klassische Medien.
Und dann stellt sich die Frage nach der Finanzierung: Wir brauchen so etwas wie Public Value – also öffentlich-rechtliche Strukturen für den digitalen Raum. Es gibt dazu bereits Studien, aber wir müssen dringend schneller handeln, um solche Modelle jenseits von Werbung umzusetzen.
Was ich beobachte, ist: Desinformation – und das Abrutschen in Verschwörungstheorien oder Fake News – hat nichts mit Alter, Geschlecht oder Bildungsgrad zu tun. Sobald der Zufluss an Informationen, die Vielfalt der Informationsquellen, stark eingeschränkt ist, geraten Menschen in Echokammern – und werden anfällig für Desinformation. Deshalb müssen wir so viele Informationsquellen wie möglich offenhalten. Das ist natürlich auch eine ökonomische und gesellschaftliche Frage.
Der zweite wichtige Punkt ist das Bewusstsein dafür, dass wir verletzlich sind.
Und drittens: Wir brauchen Technologien, die uns dabei helfen, mit der schieren Menge und dem Tempo von Informationen umzugehen. Denn soziale Medien operieren im Takt von Nanosekunden. Unser Gehirn arbeitet in Sekunden – oder in etwa einem Drittel einer Sekunde. Das ist ein ganz anderer Maßstab. Im Grunde genommen: Die Algorithmen, die soziale Medien steuern, sind eine Milliarde Mal schneller als unser Gehirn. Das müssen wir uns klarmachen.
Aber ich denke: Es ist eine Technologie – wie viele andere, die seit dem Mittelalter auf das Mediensystem eingewirkt haben. Und wir werden lernen, damit umzugehen. Ich bin da optimistisch. Aber es braucht Training. Und es braucht dieses Bewusstsein.
Mein Film ist kein klassischer Dokumentarfilm. Er ist eher ein essayistischer Film.
Er stellt viele Fragen – und öffnet viele Türen in ganz unterschiedliche Richtungen.
Was ich erreichen wollte, war ein Gesprächsanfang. Und ich glaube, das ist mir gelungen.
Und wenn Sie den Film sehen – hoffentlich im Herbst, wenn wir auch international in den Rollout gehen – dann soll er genau das sein: eine Einladung zu einer gesunden Debatte darüber, wo wir stehen und wohin wir als Gesellschaft wollen.