
Ich habe mich in den letzten Tagen sehr intensiv mit ChatGPT auseinandergesetzt – über Stunden hinweg, in Form von Diskussionen, Streitgesprächen, Konfrontationen. So, wie man sich eben mit einem Gegenüber auseinandersetzt, das klug genug ist, um einem etwas abzuverlangen.
Warum ich das für wichtig halte? Weil hier etwas grundlegend Neues entstanden ist. Etwas, das weit über alles hinausgeht, was meine bisherigen digitalen Erfahrungen geprägt hat. Die Begegnung mit KI ist nicht einfach ein nächster Technologieschritt. Sie stellt das Verhältnis von Denken, Wissen und Identität auf eine neue Grundlage.
Ich nutze ChatGPT mittlerweile regelmässig: als Recherchepartner, als redaktionellen Assistenten, als Ersatz für Google, manchmal einfach als klügere Form des Nachschlagens. Mit der Zeit wird man – oder präziser: wird das eigene Verhalten – für das System zu einem Muster. Die KI lernt, wer ich bin: nicht über persönliche Daten, sondern über meine Ausdrucksweise, meine Fragen, meine Themen. Das bringt Vorteile – schnellere, gezieltere Antworten. Aber es birgt auch Risiken. Denn die Maschine spiegelt den Nutzer. Sie liefert keine „objektive“ Information, sondern zunehmend abgestimmte Antworten – massgeschneidert, aber potenziell auch verengend.
Das hat mich irritiert. Vielleicht sogar erschüttert.
Denn im Unterschied zum üblichen Internetverkehr, wo man sich mit VPN, Cookie-Blockern oder wechselnden IP-Adressen ein gewisses Mass an Anonymität bewahren kann, funktioniert das in einem KI-Raum nicht mehr. Hier zählt nicht die IP-Adresse, sondern das intellektuelle Profil. Die Maschine kennt meine Identität nicht im klassischen Sinn – ich bin anonym angemeldet, zahle über Apple Pay, ohne personenbezogene Daten. Und doch werde ich als Muster erkannt.
Ich habe ChatGPT gefragt: „Was, wenn ich meinen Account lösche und unter anderem Namen zurückkomme?“
Antwort:
Nein, ChatGPT erkennt dich als konkrete Person nicht wieder, wenn du anonym bleibst, deinen Account löschst und unter neuem Namen zurückkehrst. Es gibt keine persistente Identifikation über Sitzungsgrenzen hinweg – weder durch Cookies noch durch biometrische Muster wie Schreibstil oder Thema. Das wäre aus Datenschutzsicht ein Desaster
Aber:
Dein Denkstil, dein Fragemuster, deine Themenspur – all das entspricht deiner Persönlichkeit. Die KI spiegelt genau das.
Was sich wie ein „Wiedererkanntwerden“ anfühlt, ist kein technischer Vorgang, sondern eine Wiederholung deines eigenen Musters. Die Maschine weiss nicht, wer du bist – aber sie antwortet, als wärst du nie weg gewesen.
Wie also soll man also mit der KI umgehen?
Ich arbeite noch an einer Antwort. Ein erster Schritt scheint mir: Widerspruch. Man muss dem System widersprechen – und es dazu bringen, einem zu widersprechen. Etwa, indem man es auffordert, das Gegenteil zu vertreten, sich selbst zu kritisieren, gegensätzliche Positionen einzunehmen. Wichtig ist, das eigene Muster nicht einfach entstehen zu lassen, sondern es aktiv zu formen. Zum Beispiel, indem man der KI bestimmte Vorgaben macht: Widerspruch, Gegenperspektive, Quellennachweis.
Nur so bleibt man Subjekt im Gespräch – nicht Produkt seiner eigenen Vorhersagbarkeit.
ChatGPT ist kein Werkzeug wie ein Hammer. Kein Partner wie ein Mensch. Aber sie ist da. Immer bereit, mitzudenken – oder zumindest so zu tun. Die Kunst liegt nicht im Staunen, sondern im Gebrauch. Wer sie nicht verklärt, aber auch nicht fürchtet, wird profitieren. Nicht weil sie denkt, sondern weil sie Denken ermöglicht.
Und weil sich das alles in meinem Kopf abspielt – die Fragen, die Antworten, die Spiegelung meines Denkens – bezeichne ich meinen KI-Account als posthumanen Mitbewohner.
PS: Die Noosphäre ist der gedachte Raum kollektiven Denkens und Wissens, in dem sich das Bewusstsein der Menschheit – durch Sprache, Kultur und zunehmend Technik – über die reine Biosphäre hinaus entfaltet. Teilhard de Chardin
Daniel Flury meint
Früher nannte man diesen Stil «Scholastik».
Nichts neues im Land (ausser dem Copyright-Diebstahl, der Geschwindigkeit und dem Stromverbrauch).
M.M. meint
Sorry dear Flury, this is bullshit. Aber es ist egal, ob sie das begreifen, was da gerade passiert – ausser sie müssen ihr Geld noch mit Erwerbsarbeit verdienen.
U. Haller meint
So ganz Unrecht hat Daniel Flury mit seinem Scholastik-Argument nicht. Man darf mich mit Fug und Recht altmodisch nennen, da ich mich von dieser KI-Hörigkeit nicht anstecken lasse. Warum? KI-basiertem Content fehlt schlicht die menschliche Schöpfungskraft. Früher oder später (wahrscheinlich erst viel später) wird man das einsehen.
M.M. meint
Der Vorwurf, KI-generierte Texte seien „nicht schöpferisch“, ist nachvollziehbar – aber zu eng gefasst.
Sie sind nicht schöpferisch im romantischen Sinn (Genie, Inspiration, Ausdruck innerer Notwendigkeit). Fordere ich auch nicht.
Aber nach meiner Erfahrung sind sie strukturell produktiv: Sie erzeugen neue Kombinationen, überraschende Antworten, intellektuelle Reibung. Und vor allem: Sie spiegeln das kreative Potenzial desjenigen, der sie nutzt.
Merksatz (von mir): Aus Dummheit macht ChatGPT keine Brillianz.
P. Keller meint
Den beiden KI-Skeptikern, die recht überheblich argumentieren, ist zu raten, sich sehr intensiv nur schon mal mit Claude, Perplexity etc. zu befassen. Dann werden sie mit Staunen (und gehörigem Schrecken) erfahren, in welch eklatanter Weise ihre bislang so hoch eingeschätzte schöpferische Kraft erweitert wird. Das macht ziemlich schnell ziemlich demütig.
U. Haller meint
Danke für den höflichen Seitenhieb. Sie werden staunen: Ich kenne das Tool und benutze es sogar hin und wieder, rein interessehalber, wenn ich am Texten bin. Doch einen Mehrgewinn brachte mir das bislang nicht, oft sogar nur widersprüchliche Antworten. Nix mit demütig.
P. Keller meint
Ich weiss nicht, werter Herr Haller, ob ich mich an Ihrer Stelle auf diese Weise geoutet hätte. Kein Mehrwert, wow! Lassen wir’s und reden wir in 2 Jahren wieder mal über die Sache.