Meta AI – Echo der Irrtümer?

Ich habe widersprochen - war das fatal?

Autor: Kurt O. Wörl

Der Meta-Konzern (Facebook, Instagram, WhatsApp) will ab heute, 27.05.2025, die öffentlichen Beiträge seiner Nutzer zum Training seiner Künstlichen Intelligenz verwenden. Das klingt harmlos, ja beinahe innovativ. Doch wer genauer hinsieht, erkennt darin ein gefährliches Perpetuum mobile der Desinformation.

Denn Meta wählt die Inhalte, die Nutzer am meisten zu Gesicht bekommen, nicht nach Wahrheitsgehalt, sondern nach emotionalem Aufruhr: Was provoziert, polarisiert und empört, wird sichtbar. Warum? Weil es Klicks, Likes, Shares und somit Werbeeinnahmen bringt. Das ist ökonomisch logisch – aber gesellschaftlich fatal.

Wenn nun dieselben Beiträge, die durch algorithmische Aufmerksamkeitslogik nach oben gespült wurden, als Trainingsbasis für eine KI dienen, passiert genau das, was nicht passieren darf: Die KI lernt nicht aus einem Spiegel der Realität, sondern aus einem Zerrspiegel. Was viele Menschen sehen, ist plötzlich das, was die Maschine für relevant hält. Und was viele Menschen laut beklatschen, könnte als „gesellschaftlicher Konsens“ fehlgedeutet werden – selbst wenn es sich um Verschwörungstheorien, Angstparolen oder extremistische Narrative handelt.

Das ist, als würde man eine Schulklasse ausschließlich mit den lautesten Schülern besetzen – und die Lehrpläne nach deren Pausengeschrei ausrichten.

Ich selbst habe der Nutzung meiner öffentlichen Inhalte durch Meta widersprochen aus einem nachvollziehbaren Grund: Ich wollte nicht, dass meine bemüht sachlich formulierten, abgewogenen Beiträge in intransparente Datenpools wandern, über deren Verwendung ich keine Kontrolle habe. Doch mit wachsendem Unbehagen frage ich mich: Bewirke ich damit nicht genau das Gegenteil, was eigentlich nötig wäre?

Denn je mehr Menschen mit differenzierten, verantwortungsvollen Stimmen sich aus dem Trainingsmaterial zurückziehen, desto größer wird der Einfluss derer, die lauter, vereinfachender und oft auch spaltender kommunizieren. Was bleibt der KI dann als „Lernstoff“? Eine verzerrte Öffentlichkeit, gefiltert durch Algorithmen, die Erregung über Erkenntnis stellen.

Was wir bräuchten, wäre ein völlig anderes Modell: Eines, das nicht auf unkontrollierter Datenabschöpfung beruht, sondern auf freiwilliger, reflektierter Beteiligung. Ein Modell, das sachliche Stimmen sichtbar macht, sie schützt – und sie nicht durch ihr eigenes Zutun, wie ich es getan habe, aus dem Diskurs verbannt.

Solange Metas Künstliche Intelligenz auf den gleichen verzerrten Mechanismen basiert wie seine sozialen Netzwerke, wird aus dem Versprechen der Zukunft nur eines: ein Echo der Irrtümer.

(Übrigens: Die Widerspruchsmöglichkeit hat Meta gut versteckt. Ich brauchte fast eine Stunde, um sie schließlich in Metas Datenschutzrichtlinie zu entdecken.)


Lesen Sie auch:

KI-generierte Texte erkennen

Sozialismus aus Sicht der KI

ChatGBT: Ist das wirklich „Intelligenz“?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert