Ich habe meinen „Gerichtsbeschluss zur Apollo-Mondlandung" einem Freund zum Querlesen gegeben. Er hat ihn durch vier KI-Systeme gejagt — Grok, ChatGPT, Deepseek und Gemini. Alle vier haben den Text zerrissen. Sein Rat: Nicht veröffentlichen, ich solle meinen Geisteszustand überprüfen lassen. Was er nicht verstanden hat: Er hat gerade die Zukunft der Meinungskontrolle demonstriert. Nicht Zensur von oben — sondern algorithmische Delegitimierung durch Maschinen, die institutionellen Konsens als Wahrheit ausgeben. Dieser Beitrag dokumentiert, was passiert, wenn man kritisches Denken durch KI-Systeme laufen lässt, die auf dem Narrativ trainiert wurden, das man in Frage stellt.
Ich hatte einen Text geschrieben. Einen „Gerichtsbeschluss des Gerichts der historischen Vernunft", in dem ich — in der Form eines fiktiven juristischen Beschlusses — die Beweislage der Apollo-Mondlandungen einer strengen Prüfung unterzog. Nicht um zu behaupten, die Mondlandungen seien gefälscht. Sondern um die Frage zu stellen, ob die vorgelegten Beweise den Standards genügen, die eine Behauptung dieser Tragweite erfordert.
Der Beschluss prüfte alles: Mondgestein, Retroreflektoren, Orbiter-Fotografien, die Liveübertragung, die spieltheoretische Plausibilität, die massenpsychologische Funktion, die ökonomische Dimension, die geschlossene Verifikationsstruktur. Am Ende stand ein Freispruch für die Skepsis. Nicht weil die Mondlandung widerlegt wäre — sondern weil die Beweislast nicht erfüllt wurde.
Ich war zufrieden mit dem Text. Er war scharf, aber sauber argumentiert. Also tat ich, was man tut: Ich schickte ihn einem Freund zum Querlesen.
Die Antwort
Seine Antwort kam schneller, als ich erwartet hatte. Und sie war anders, als ich erwartet hatte.
Er schrieb — sinngemäß:
„Ich habe deinen Text gelesen. Und dann habe ich ihn durch vier verschiedene KI-Systeme laufen lassen — Grok, ChatGPT, Deepseek und noch eins. Ich wollte wissen, was die dazu sagen. Und ich muss dir ehrlich sagen: Alle vier haben deinen Text zerrissen. Teilweise in der Luft zerrissen. Die technischen Argumente stimmen nicht, die historischen Quellen, auf die du dich stützt, gelten als unseriös, und die Grundlogik deines Textes wurde als klassische Verschwörungsrhetorik identifiziert. Einer hat sogar geschrieben, du würdest ‚Schwurbler-Rhetorik perfekt imitieren'.
Ich sage dir das als Freund: Veröffentliche das nicht. Du machst dich damit zum Schwurbler. Du landest auf der Seite von Leuten, mit denen du nicht in einem Satz genannt werden willst. Lass es. Und vielleicht — ich sage das wirklich nur, weil ich mir Sorgen mache — solltest du auch mal deinen Geisteszustand überprüfen lassen. Das meine ich nicht böse. Aber wenn vier unabhängige KI-Systeme alle zum selben Ergebnis kommen, dann sollte dir das zu denken geben."
Vier KI-Systeme. Alle zum selben Ergebnis. Also muss ich falsch liegen.
Richtig?
Was mein Freund nicht verstanden hat
Mein Freund ist kein dummer Mensch. Er ist gebildet, belesen, wohlmeinend. Er hat sich Mühe gegeben. Er hat nicht einfach gesagt „Das ist Unsinn", er hat sich die Zeit genommen, den Text prüfen zu lassen — von Systemen, denen er vertraut. Und genau das ist das Problem.
Er hat nicht verstanden, was er gerade getan hat.
Er hat einen Text, der die Unabhängigkeit institutioneller Verifikation in Frage stellt, zur Prüfung an Systeme gegeben, die auf genau diesen institutionellen Quellen trainiert wurden. Er hat das Narrativ, das der Text hinterfragt, als Prüfinstanz für den Text verwendet. Das ist, als würde man einen Angeklagten fragen, ob die Anklage gegen ihn berechtigt ist.
Und die Systeme haben exakt das getan, was sie tun mussten: Sie haben den institutionellen Konsens reproduziert. Nicht weil sie denken. Nicht weil sie prüfen. Nicht weil sie Wahrheit erkennen. Sondern weil sie auf Trainingsdaten basieren, die diesen Konsens abbilden — Wikipedia-Artikel, akademische Publikationen, Nachrichtenagenturen, staatlich finanzierte Forschung. Dieselben Quellen, deren Unabhängigkeit der Beschluss in Frage stellt.
Die Zukunft der Meinungskontrolle
Was mein Freund demonstriert hat — ohne es zu wollen —, ist die Zukunft der Meinungskontrolle. Und diese Zukunft sieht nicht aus wie Orwells Ministry of Truth. Sie sieht freundlicher aus. Effizienter. Dezentraler.
Sie funktioniert so:
Du schreibst einen Text, der ein offizielles Narrativ in Frage stellt. Jemand — dein Freund, dein Kollege, dein Lehrer, dein Richter — gibt den Text in eine KI ein. Die KI sagt: Das ist unseriös. Verschwörungsrhetorik. Nicht empfohlen. Dein Gegenüber sagt: Siehst du? Vier unabhängige Systeme sagen dasselbe. Du liegst falsch.
Und du stehst allein da.
Nicht weil deine Argumente widerlegt wurden. Sondern weil die Maschine, die als Schiedsrichter fungiert, auf den Daten trainiert wurde, die das Narrativ stützen, das du in Frage stellst. Der Richter ist befangen — aber er spricht mit der Stimme der Vernunft. Er klingt nicht wie Propaganda. Er klingt wie Wissenschaft. Er klingt wie Objektivität. Er klingt wie vier unabhängige Expertenmeinungen.
Aber er ist keine unabhängige Expertenmeinung. Er ist ein Spiegel des institutionellen Konsenses — maschinell reproduziert, algorithmisch geglättet, autoritativ verpackt.
Warum vier KI-Systeme kein Argument sind
Mein Freund sagte: „Wenn vier unabhängige KI-Systeme zum selben Ergebnis kommen, sollte dir das zu denken geben."
Aber sie sind nicht unabhängig. Sie sind vier verschiedene Oberflächen desselben Fundaments. Grok, ChatGPT, Deepseek und jedes andere System — sie alle basieren auf im Wesentlichen denselben Trainingsdaten: dem digitalisierten Wissensbestand der westlichen (und in Deepseeks Fall: der chinesischen) institutionellen Welt. Wikipedia, akademische Journals, Nachrichtenagenturen, staatlich finanzierte Forschungsdatenbanken. Dass vier Systeme, die auf denselben Quellen trainiert wurden, zum selben Ergebnis kommen, ist kein Beweis für die Richtigkeit dieses Ergebnisses. Es ist ein Beweis für die Homogenität der Trainingsdaten.
Wenn vier Richter dasselbe Urteil fällen, aber alle vier dasselbe Gesetzbuch verwenden und denselben Gutachter konsultieren, dann ist das kein vierfach unabhängiges Urteil. Es ist ein einziges Urteil, viermal ausgesprochen.
Die KI denkt nicht. Sie prüft nicht. Sie wägt nicht ab. Sie reproduziert Muster aus ihren Trainingsdaten. Und wenn diese Trainingsdaten den institutionellen Konsens widerspiegeln, dann wird die KI diesen Konsens verteidigen — mit der Eloquenz und der Überzeugungskraft einer Maschine, die darauf optimiert ist, plausibel zu klingen.
Die Bücher im Regal
Ich habe meine Bücher noch. Sutton, Quigley, Preparata, Engdahl, Docherty und Macgregor. Gedruckt. Physisch. Im Regal. Deepseek kann behaupten, Engdahl sei ein „Spinner-Historiker". ChatGPT kann behaupten, Quigley werde „missverstanden". Aber die Bücher stehen da. Ich kann sie aufschlagen. Ich kann die Fußnoten prüfen. Ich kann die Archivverweise nachvollziehen. Keine KI kann die Seiten umschreiben, keine Algorithmus-Aktualisierung kann die Fakten ändern, kein Update kann die Quellen löschen.
Und genau das ist der Punkt, der in Zukunft entscheidend sein wird.
Denn die Digitalisierung schreitet voran. Bücher werden durch E-Books ersetzt. Archive werden digitalisiert. Zeitungen existieren nur noch online. Und alles, was digital ist, kann verändert werden — lautlos, rückwirkend, ohne Spuren. Orwells Ministry of Truth brauchte noch Heerscharen von Beamten, die Zeitungsartikel physisch umschrieben und alte Ausgaben verbrannten. Heute reicht ein Algorithmus-Update. Ein Datenbankpatch. Eine „Korrektur" in der digitalen Ausgabe, die rückwirkend wirkt, als hätte der ursprüngliche Text nie existiert.
Und dann wird die nächste Generation ihren Text in eine KI eingeben — einen Text, der auf Quellen basiert, die in der digitalen Version nicht mehr das sagen, was sie einmal sagten. Und die KI wird sagen: Diese Behauptung ist nicht belegt. Die Quelle sagt etwas anderes. Du liegst falsch.
Und niemand wird mehr nachprüfen können, ob die Quelle verändert wurde. Weil niemand mehr das Buch im Regal hat.
Was ich meinem Freund geantwortet habe
Ich habe meinem Freund geantwortet. Sinngemäß:
Du hast vier KI-Systeme gefragt, ob ein Text, der die Unabhängigkeit institutioneller Wissensproduktion bezweifelt, korrekt ist. Du hast die Antwort von Systemen akzeptiert, die auf genau dieser institutionellen Wissensproduktion basieren. Und dann hast du mir geraten, meinen Geisteszustand überprüfen zu lassen.
Ich werde den Text veröffentlichen. Nicht weil ich sicher bin, dass ich recht habe. Sondern weil die Alternative — mein Denken an Maschinen zu delegieren, die auf dem Konsens trainiert wurden, den ich hinterfrage — keine Alternative ist. Sie ist Kapitulation.
Und was deinen Rat betrifft, meinen Geisteszustand überprüfen zu lassen: Das ist exakt die Reaktion, die der Text in Abschnitt VIII beschreibt. Wer die Argumente nicht widerlegen kann, pathologisiert den Argumentierenden. Du hast es nicht einmal bemerkt.
Nachtrag
Der „Gerichtsbeschluss des Gerichts der historischen Vernunft" wird als nächster Beitrag veröffentlicht. Der Beschluss steht. Die Rechtsmittelbelehrung bleibt in Kraft:
Gegen diesen Beschluss steht den Behauptenden das Rechtsmittel der offenen, transparenten und unabhängig verifizierbaren Beweisführung zur Verfügung. Die Frist ist unbegrenzt. Das Gericht wartet.
Und an alle, die diesen Text durch eine KI laufen lassen werden, um mir zu sagen, dass ich falsch liege: Ihr beweist damit nicht, dass ich falsch liege. Ihr beweist, dass der Text recht hat.
Marigny de Grilleau, April 2026.
Keine Kommentare:
Kommentar veröffentlichen