Auf die Gefahr hin, Leser zu vergraulen, wenn ich schon wieder mit KI komme: Nun, es wird einfach jede Menge Unsinn geschrieben. Leute mit Halbwissen veranstalten Weiterbildungskurse für völlig Ahnungslose, Experten warnen vor dem Untergang der Menschheit, KI hat Millionen von Büchern gespeichert, die sie zitieren kann.
Doch am heitersten sind journalistischen Jetzt-hört-mal-zu-Beiträge über KI, deren Quintessenz meistens gleich lautet: KI ist unzuverlässig, weiss auch nicht alles, bringt eigenartige Ergebnisse – oder, die grösste aller Beleidigungen für Journalisten: Wir erklären die Welt, doch die KI ignoriert uns.
Davon handelt ein KI-Beitrag, geschrieben von einer Journalistin mit Input eines KI-Experten, in den CH-Medien: „Die KI informiert uns aufgrund teilweise seltsamer Quellen – das enthüllt eine Schweizer Analyse“.
Wow, eine AI-Crime-Story.
Nun, der KI-Experte hat verschiedenen KI-Modellen dieselbe Frage gestellt – und ist erstaunt, dass das mit den Quellen nicht so läuft wie bei Google.
Also: Quellen = Webseiten = journalistische Inhalte = Grundlage der Wahrheit. Für ein Large Language Model, kurz LLM, stimmt das nicht mehr.
Grundsätzliche Erklärung: Ein LLM surft nicht, hat keine Texte oder Websites gespeichert. ChatGPT et al. rekonstruieren semantische Muster aus einem gigantischen Trainingsraum. Der gelegentliche Web-Zugriff ist nur ein Zusatz, nicht das Fundament.
Deshalb sind Quellen (Links) bei Prompt-Antworten nicht Teil des Denkprozesses, sondern ein nachgereichter Verweis.
Woraus folgt: LLMs gewichten Informationen nicht nach publizistischem Rang: „Hohe Auflage gleich hohe Wichtigkeit“. KI sortiert nach semantischer Nützlichkeit und – absolut entscheidend – nach maschinenlesbarer Struktur.
Oder anders gesagt: Maschinenlesbarkeit schlägt Relevanz, weil die KI keinen Sinn kennt – nur Muster.
Die Frage des CH-Media-Experten: „Warum zitiert die KI nicht die grossen Schweizer Medien?“ ist deshalb falsch gestellt. Sie müsste lauten: „Welche Informationsstrukturen dominieren das semantische Modell?“
Und da schneiden Schweizer Medien wegen technischer Rückständigkeit seit Jahren schlecht ab.
Deshalb ist auch leicht erklärbar, weshalb ein eher unbedeutendes ausländisches Medium deutlich besser abschneidet, als ein Reichweitenboltzer wie zum Beispiel Tamedia. Solche Portale haben extrem saubere, strukturierte Metadaten, schnelle Server, klare Seitentitel und maschinenlesbare Tags.
Punkt.
Ein LLM bevorzugt nicht Relevanz – sondern maschinelle Klarheit. Was Journalisten, die für grosse Titel mit schlecht gemachten Online-Sites erschüttern dürfte: In der KI-Welt schlägt syntaktische Sauberkeit journalistische Autorität.
Damit kippt die klassische Vorstellung von Medienhierarchie: Relevanz für Menschen ≠ Relevanz für Modelle.
Weshalb ich überhaupt auf den Beitrag eingehe, ist ein tatsächlich relevantes Problem im KI-Zeitalter: die Autorität der Quelle. Quellenautorität entsteht im KI-Zeitalter nicht durch Reputation, sondern durch Struktur.
Der Beitrag behauptet, weil der Bund nicht genug häufig zitiert wird, verlöre er Deutungsautorität. Die Wahrheit ist viel banaler: Die Bundesbehörden – übrigens auch kantonale, verlieren nicht wegen fehlender Zitate, sondern weil er kein informationsarchitektonisches Modell für die KI-Welt betreibt.
Der Bund müsste:
- Inhalte maschinenlesbar anbieten (APIs, Schema-Markup, Knowledge-Graphs).
- Gemeinsame Datenräume bereitstellen (OpenGov Graph).
- Neutralitäts- und Rechtsgrundlagen nicht nur publizieren, sondern modellieren.
Kurz: Die Schweiz hat kein Problem der Quellen, sondern ein Problem der Datenarchitektur.
Der CH-Media-Artikel beweist nicht, dass KI schlecht recherchiert, sondern dass der Autor die KI mit Kriterien beurteilen, die im Modellzeitalter keine Gültigkeit mehr haben.
Man prüft ein KI-Modell mit Logik aus der Zeit der Linkliste – und wundert sich, dass sie nicht googelt wie 2010.
- Das alte Internet war Google: Listen, Treffer, Quellen.
- Das neue Internet ist ein Denkmodell: Es rekonstruiert Bedeutung, statt Seiten aufzuzählen.
Und zu guter Letzt, die brutale Wahrheit des neuen Zeitalters:
- Wer nicht strukturiert schreibt, existiert für die Maschine nicht.
- Und wer nicht strukturiert publiziert, existiert bald nur noch für seine eigenen Redaktionskonferenzen.
Fazit: Der Beitrag der bz handelt nicht vom Unvermögen der LLMs, sondern vom Unvermögen der Autorin und deren Experte, das neue Internet zu verstehen.
Keller P. (selbstgeschrieben ;-) meint
Ganz genau, so ist es. Oder, vereinfacht gesagt: Wer es nicht versteht, im analogen Gespräch mit dem dafür bestgeeigneten Gegenüber die richtigen Fragen zu stellen, stürzt digital erst recht ins Elend. Etwa dann, wenn sie/er Gemeindemitteilungen von einer kostenlosen KI formulieren lässt und sie dann an Herrn Hausendorf weiterleitet, der flugs die gleiche Maschine bittet, den Text nach den Regeln der BAZ umzuschreiben.
gotte meint
die politik schafft nicht mal die abschaffung der beromünsterfrequenz aka ukw.
Firedome meint
UKW könnte schon abgeschafft werden aber die zu vielen Lücken nerven ziemlich. Also: Ausbauen und dann von mir aus abschalten.
Baresi meint
Haben Sie Ihren Blog technisch und in der Textstruktur auf die neue Wirklichkeit umgestellt? Was hat sich geändert? Bedeutet dies, es gibt ein Vorher und ein Nachher für Ihre Beiträge oder wird das Rückwirkend übernommen?
Manfred Messmer meint
Ja. Ich habe den Blog technisch und in der Textarchitektur modernisiert und an die neue KI-Logik angepasst. Die Beiträge folgen heute einer präziseren, klarer geführten Struktur.
Sichtbares Detail: Nicht mehr M.M., sondern für KI-Systeme klare Autorschaft.
Rückwirkend wird nichts geändert; die alten Texte bleiben, wie sie entstanden sind.
Daniel Flury meint
Typisch IT: Die Wirklichkeit passt sich immer der Technik an, aber die Technik niemals der Wirklichkeit.
Und wer profitiert davon?
Natürlich die Dagoberts dieser Welt, mit ihren riesigen Geldspeichern, die sie neuerdings nicht einmal mehr bauen müssen, sondern einfach die Speicherkapazität ihrer Server-Landschaften erweitern können.
Wie hiess es einmal?
«Erst wenn der letzte Baum gerodet, der letzte Fluss vergiftet, der letzte Fisch gefangen, werdet ihr feststellen, dass man Geld nicht fressen kann».
Majestix Gallier meint
Komme gerade aus einer 8-stündigen Schulung mit einem anerkannten KI-Experten.
Holy shit. Ich bin sprachlos, beeindruckt – und auch besorgt.
Der Mangel liegt – wie du es beschreibst – nicht bei der KI, sondern bei der Datengrundlage. Und einem guten Prompt Engineering – da habe ich definitiv noch grosse Lücken.
Wer sich nicht darauf einlassen kann/will, sollte wohl bei Google bleiben.