• Blizzard in New York! ABout AI-Slops

      Achtung, die ersten „KI zugeschneiten New York“-Videos kursieren bereits auf Social Media.

      Und ich gehe davon aus, dass da eine Menge AI-Slops auf uns zukommen werden. Genau das ist das Problem. Bitte passt auf, was ihr teilt. Bitte prüft, bevor ihr weiterverbreitet.

      Nur weil etwas spektakulär aussieht, ist es noch lange nicht echt. Und nur weil ein Clip tausendfach geteilt wird, ist er nicht automatisch verifiziert.

      Das gilt übrigens nicht nur für private Accounts. Auch Medien können auf Material hereinfallen (oder halt verbreiten), wie wir seit letzter Woche wissen. Wenn der Druck hoch ist, die Bilder perfekt ins Narrativ passen und man nicht ganz so sauber mal arbeitet, ist alles möglich.

      Wir bewegen uns inzwischen in einem Bereich, in dem man nicht mehr auf den ersten Blick erkennt, was real ist und was synthetisch erzeugt wurde. Das ist keine Panikmache, sondern Realität.

      Das Problem der AI-Slops liegt auf der Hand: Der AI Slop ist der Moment, in dem das Internet beginnt, sich selbst zuzumüllen.

      Es sind diese massenhaft produzierten KI-Inhalte, die in wenigen Minuten erstellt werden können. Bilder, Videos, Texte. Oft extrem emotional, sie können „zu perfekt“ wirken, fast immer jedoch mit genau den Reizen, die Plattformen belohnen: Schock, Empörung, Angst, Mitleid, Staunen. Hauptsache, du bleibst hängen. Hauptsache, du reagierst.

      Und genau darin liegt das Problem: AI Slop ist nicht nur „schlechter Content“. AI Slop kann unsere Wahrnehmung von Realität verschieben.

      Warum? Genau diese Erklärung ist mir besonders wichtig!

      Wenn wir Realität hauptsächlich über AI Slop konsumieren, passiert etwas sehr Grundlegendes. Am Ende unterscheiden wir nicht mehrt zwischen „echt gesehen“ und „im Feed gesehen“. Wir verinnerlichen die virtuellen EInfrücke und halten sie für echt. Videos. Bilder. Stimmungen. Wiederholungen.

      Je öfter wir etwas sehen, desto normaler wirkt es. Und was normal wirkt, fühlt sich irgendwann real an. Wenn wir also täglich künstlich erzeugte Szenen konsumieren, die aussehen wie echte Nachrichten, echte Menschen oder echte Ereignisse, dann entsteht ein schleichender Effekt: Wir beginnen, die Welt durch das Muster dieser Inhalte zu interpretieren.

      Wenn AI Slop ständig dramatische Übertreibungen zeigt, dann wirkt die Welt gefährlicher, als sie ist.

      Wenn er ständig extreme Körper zeigt, wirken normale Körper plötzlich „falsch“.

      Wenn er ständig Skandale und Empörung produziert, scheint alles korrupt und kaputt. Wenn sie dauerhaft dramatisch ist, wirkt Realität langweilig. Gar „falsch“.

      Der zweite Effekt ist noch schlimmer: AI Slop zerstört Vertrauen. Wenn immer mehr Inhalte künstlich wirken oder sich später als Fake herausstellen, dann kommt dieser Satz: „Man kann sowieso nichts mehr glauben.“ Das klingt nach Skepsis, ist aber in Wahrheit eine Kapitulation. Denn wer glaubt, dass nichts mehr stimmt, ist viel leichter steuerbar. Dann gewinnt nicht die Wahrheit, sondern der, der am lautesten ist oder am besten Gefühle auslöst.

      Und der dritte Effekt: AI Slop überflutet die Plattformen so sehr, dass gute, geprüfte Inhalte untergehen. Nicht weil sie schlechter sind, sondern weil sie nicht so aggressiv optimiert sind. Die Folge ist eine Verschiebung der Aufmerksamkeit. Von Einordnung zu Aufregung. Von Kontext zu Klick.

      AI Slops können unterhaltsam, ja sogar lustig sein. Aber so ein AI Slop ist nicht harmlos. Er ist ein Zugriff auf unsere Orientierung.

      Sad
      Angela Freilinger, TG Gergely Teglasy und 10 andere
      1 Kommentar