Um die Betrachtung zur Künstlichen Intelligenz fortzusetzen, richten wir den Blick heute auf ihre konkrete Nutzung.
Dabei zeigen sich zwei grundsätzlich verschiedene Modi: Einerseits die funktionale Anwendung – techniknah, zielgerichtet, auf Effizienz und Korrektheit hin optimiert. Das Subjekt tritt hinter die Aufgabe zurück, die KI dient als Werkzeug.
Andererseits die dialogische Nutzung – ideengetrieben, reflexiv, oft essayistisch. Hier wird das Subjekt selbst Teil des Erkenntnisprozesses, nicht bloss dessen Auslöser.
Im funktionalen Modus fungiert die KI als ausführendes System: Sie optimiert Code, berechnet Statistiken, erstellt Literaturlisten. Ziel ist ein überprüfbares Resultat – schnell, richtig, zweckmässig. Die Qualität der Antwort ist objektivierbar, der Nutzer agiert als Bediener, nicht als Gesprächspartner.
In diesem Zusammenhang ist Individualisierung nicht nur unnötig – sie wäre hinderlich.
Je generischer der Stil, je normierter der Aufbau, desto besser. Persönliche Eigenheiten stören nur. Die KI ist hier: Maschine mit Schnittstelle. Hochintelligent, aber funktional blind.
Anders im dialogischen Modus. Hier steht nicht die Maschine im Vordergrund, sondern der Denkraum, den sie eröffnet. Die KI wird zum Gegenüber – nicht im ontologischen, aber im funktionalen Sinn: Sie spiegelt, provoziert, schärft. Die Fragen lauten nicht:
Was ist X?, sondern: Was bedeutet X für mich?
Die Qualität der Antwort bemisst sich nicht an Richtigkeit, sondern an Resonanz – an ihrer Fähigkeit, Gedanken weiterzutreiben.
In diesem Modus übernimmt der Mensch die aktive Rolle.
Er steuert nicht nur das System, sondern prägt es – durch Tonfall, Argumentationsweise, stilistische Handschrift. Individualisierung ist hier keine Spielerei, sondern Voraussetzung. Ohne sie wären die Antworten austauschbar – korrekt vielleicht, aber bedeutungslos.
Und wie lange dauert es, bis sich diese Individualisierung bemerkbar macht?
Nicht lange. Schon nach wenigen Gesprächen beginnt ein System wie ChatGPT, Muster zu erkennen: thematische Vorlieben, sprachliche Eigenheiten, argumentative Strategien. Selbst ohne Langzeitgedächtnis entsteht situative Anpassung. Die Antworten klingen stimmiger, der Tonfall trifft, die Vorschläge passen besser.
Fun Fact: Wer mit „seinem Profil“ etwa nach einem Hotel fragt, bekommt keine beliebige Liste, sondern ein überraschend passendes Angebot – abgestimmt auf Geschmack, Duktus und unausgesprochene Signale.
Eine Erfahrung, die irritiert – und fasziniert.
Die Pointe: Zwei völlig verschiedene KI-Erfahrungen – auf ein und derselben Plattform. Ob jemand ein fehlerhaftes Python-Script debuggt oder eine These zu Derridas Begriff der Différance durchdenkt: Die Benutzeroberfläche bleibt gleich. Doch was herauskommt, hängt radikal vom Modus der Nutzung ab.
Für den einen ist ChatGPT ein Taschenrechner der Superlative. Für den anderen: ein gedanklicher Resonanzraum mit Eigenleben.
Exkurs: Und wie steht es mit der KI-Nutzung durch staatliche Stellen und Unternehmen – im sogenannten Dialog mit Bürgern und Kunden?
Hier gilt: Man muss sich von der romantischen Vorstellung verabschieden, irgendwo kümmere sich ein Mensch. Der Nutzer steht im Austausch mit einer Technik, die vorgibt, ein Dialog zu sein – in Wahrheit aber ein algorithmisches Verfahren zur Nutzerführung ist.
Das ist kein Missbrauch, sondern Absicht. Der Dialog ist kein Beziehungsgeschehen, sondern ein Steuerungsinstrument.
Die eigentliche Gefahr liegt in der Illusion: Man fühlt sich gehört, verstanden, vielleicht sogar ernst genommen. Tatsächlich aber wird man kanalisiert.
Das System interessiert sich nicht für den Menschen als Subjekt, sondern für ihn als Nutzerprofil mit Anliegen. Was zählt, ist nicht das Gespräch – sondern dessen Verwertbarkeit.
Willkommen in der neuen Wirklichkeit.
Firedome meint
Haben Sie auch schon einmal zwei unterschiedliche Systeme aufeinander losgelassen? ChatGPT vs. Gemini so zum Beispiel?