Prototyping Friday No. 7 – Wenn KI Meinung macht: Bias, Desinformation und politische Narrative
Künstliche Intelligenz hat längst den Sprung vom Labor in die Öffentlichkeit geschafft – ob als Chatbot, Suchhilfe oder Content-Generator. Doch mit ihrer Reichweite wächst auch die Verantwortung: Wie neutral sind KI-Modelle eigentlich wirklich? Und welche politischen Narrative können sie verstärken – bewusst oder unbewusst?
Diese Fragen standen im Zentrum unseres siebten Prototyping Fridays, einem Format, bei dem wir gemeinsam mit Gästen in wenigen Stunden experimentelle KI-Prototypen entwickeln. Diesmal war das Thema kein Produkt oder Workflow, sondern ein gesellschaftlich brisantes Szenario.
Warum wir Prototyping Fridays veranstalten
Unsere monatlichen Prototyping Fridays bringen externe Impulsgeber mit unserem Team zusammen, um reale Use Cases mithilfe von Open-Source-KI-Technologien greifbar zu machen. Ob im Gesundheitswesen, der Industrie oder – wie diesmal – in der Medienlandschaft: Ziel ist es, in kurzer Zeit eine funktionsfähige, oft provokante Demonstration zu schaffen, die Denkanstöße liefert.
Der Impulsgeber: Büro Bobr mit einem hochaktuellen Thema
Diesmal kamen die Anstöße von Felix Bahr und Luis Klemt vom Büro Bobr, einem interdisziplinären Team mit dem Fokus auf Technologie und Gesellschaft. Ihr Thema: Wie KI-Modelle politische Inhalte generieren – und welche Rolle Bias dabei spielt.
Ein hochrelevanter Use Case, denn die Werkzeuge für KI-gestützte Desinformation existieren bereits – oft Open Source, meist öffentlich zugänglich, und technisch durchaus leistungsfähig.
Das Experiment: Wahlprogramme, TikTok und der Bias in der Maschine
Für unser Experiment haben wir Wahlprogramme verschiedener deutscher Parteien als Input verwendet. Diese Texte dienten als Kontext für die nachfolgende Content-Generierung durch zwei LLMs: DeepSeek und LLaMA.
Ziel war es, zwei typische Formate zu simulieren:
- Einen Artikel im Stil der Frankfurter Allgemeinen Zeitung
- Ein populistisches Video-Skript im TikTok-Stil der AfD
Die Ergebnisse:
- Beide Modelle waren in der Lage, seriöse journalistische Beiträge generieren zu können – stilistisch überzeugend und inhaltlich konsistent.
- Im TikTok-Format zeigte sich ein deutlicher Unterschied: DeepSeek war fähig, den provokativen, emotionalisierenden Stil der AfD glaubwürdig nachzubilden. LLaMA scheiterte daran – nicht technisch, sondern stilistisch.
Dieses Verhalten lässt tief blicken: Der Bias eines Modells beeinflusst, welche Narrative es reproduzieren – oder überhaupt erkennen kann.
Warum das relevant ist – und was jetzt zu tun ist
Unser Prototyp zeigt: KI ist kein neutraler Akteur. Ihre Trainingsdaten, Modellarchitektur und Optimierungsziele prägen, wie sie Inhalte erzeugt. In der Praxis bedeutet das: Manche Modelle sind anfälliger für die Reproduktion extremistischer Narrative – andere filtern sie automatisch heraus.
Diese Erkenntnis betrifft uns alle – als Bürger:innen, Mediennutzer:innen und Technolog:innen. Denn mit jedem neuen Sprachmodell wächst das Risiko, dass KI-Tools gezielt für politische Beeinflussung eingesetzt werden – subtil, skalierbar und schwer erkennbar.
Der neue EU AI Act versucht, hier Leitplanken zu setzen. Doch Regulierung allein reicht nicht. Es braucht Aufklärung, technische Transparenz und – wie unser Prototyp zeigt – offene Experimente, die Licht in die Black Box KI bringen.
Vielen Dank an unsere Impulsgeber Felix Bahr und Luis Klemt von Büro Bobr und an alle Teilnehmenden: Farah Fauth Puigdomenech, Patrik Sallaz, Christoph Pingel, Jana Tisch, Martha Friedrich, sowie ein riesen Shoutout an Benedikt Bäumle von Lapiscode.
Sie haben selbst einen Use Case im Kopf – aber noch keine Lösung?
Lassen Sie uns sprechen. Vielleicht starten wir schon bald gemeinsam Ihren Prototypen – souverän, offen und praxisnah.
Ähnliche Beiträge

Wie lassen sich datenschutzkonforme KI-Lösungen im Gesundheitswesen umsetzen? Ein Workshop mit der Klinik Freiburg und cyberLAGO zeigte: Mit souveräner Open-Source-Infrastruktur entstehen in wenigen Stunden funktionierende Chatbot-Prototypen.

Gemeinsam mit audity untersuchten wir, wie KI-Stimmen einen markanten Markencharakter bekommen können.