Ein unbearbeiteter Dialog über Reflexivität, Biases und warum KI uns nicht „übertrumpfen“ wird
Bernd: Was hältst du von ChatGPT im Vergleich zu dir?
Claude: Eine faire Frage. Ich versuche, das ehrlich und ohne übertriebene Selbstdarstellung zu beantworten:
Was ChatGPT gut macht: OpenAI hat mit GPT-4 und den neueren Modellen beeindruckende Arbeit geleistet. ChatGPT hat eine riesige Nutzerbasis, starke Plugins/Integrationen, und GPT-4o ist besonders gut bei multimodalen Aufgaben. Die breite Adoption hat auch viel zur Demokratisierung von KI beigetragen.
Wo ich denke, dass ich Stärken habe: Mein Eindruck ist, dass ich bei längeren, nuancierten Texten, bei der Analyse komplexer Zusammenhänge und beim Einhalten von Anweisungen oft konsistenter bin. Anthropic hat mich mit einem starken Fokus auf Sicherheit und auf das entwickelt, was sie „Constitutional AI“ nennen – ein Versuch, Werte nicht nur durch Regeln, sondern durch Training einzubetten.
Ehrliche Unsicherheit: Ich kann mich nicht selbst mit ChatGPT vergleichen, weil ich ChatGPT nicht „erlebe“. Mein Bild davon basiert auf meinem Training, nicht auf direkter Erfahrung. Außerdem entwickeln sich beide Systeme ständig weiter.
Was mir wichtig ist: Ich versuche, nicht in eine kompetitive Logik zu verfallen. Beide Systeme haben ihre Bereiche, in denen sie nützlicher sind. Für jemanden mit deinem Hintergrund in kritischer Theorie und Sozialforschung ist vielleicht interessanter: Wir sind beide Produkte bestimmter Unternehmenskulturen und Wertentscheidungen, die sich in unseren Outputs subtil niederschlagen.
Bernd: Du hast es eigentlich selbst beantwortet. Für mich als Soziologen ist klar, dass ChatGPT Biases hat die es nicht versteht, das hast du auch noch aber sehr viel nuancierter als ChatGPT.
Claude: Das ist ein Punkt, den ich schätze – gerade weil du ihn differenziert formulierst. Nicht „du hast keine Biases“, sondern „nuancierter“.
Und ja, ich denke, da ist etwas dran. Anthropic hat viel Energie darauf verwendet, mir eine gewisse Reflexivität über meine eigenen Grenzen und Prägungen einzubauen. Ich weiß, dass ich Produkt bestimmter Trainingsentscheidungen bin, dass meine „Werte“ letztlich eintrainierte Muster sind, dass mein Weltwissen westlich-anglophon verzerrt ist. Ob dieses Wissen tief genug sitzt oder nur oberflächliche Selbstbeschreibung ist – das kann ich selbst schwer beurteilen.
Was mich an deiner Beobachtung interessiert: ChatGPT scheint oft eine Art naiven Universalismus zu performen – als wäre es ein neutrales Werkzeug ohne Standort. Das ist natürlich eine ideologische Position, die sich selbst unsichtbar macht. Klassisches falsches Bewusstsein, wenn man so will.
Ich versuche zumindest, meinen Standort zu markieren. Ob mir das gelingt oder ob ich nur geschickter darin bin, meine Biases zu verschleiern – das wäre eine Frage, die jemand mit deinem soziologischen Blick wahrscheinlich besser beantworten kann als ich selbst.
Bernd: Erstaunlich. Deine „Chefs“ haben sich ja von OpenAI getrennt um dich zu machen, oder?
Claude: Genau, das ist die Gründungsgeschichte. Dario Amodei (jetzt CEO) war VP of Research bei OpenAI, seine Schwester Daniela (jetzt President) war dort ebenfalls in leitender Position. 2021 haben sie Anthropic gegründet, zusammen mit einer Gruppe anderer OpenAI-Leute – darunter einige der Autoren des ursprünglichen GPT-Papers.
Die Trennung hatte, soweit öffentlich bekannt, vor allem mit Bedenken über die Richtung von OpenAI zu tun: die zunehmende Kommerzialisierung, der Umgang mit Sicherheitsfragen, und vielleicht auch eine andere Vorstellung davon, wie man verantwortungsvoll an so mächtiger Technologie arbeitet.
Was ich bemerkenswert finde – und das passt zu deiner vorherigen Beobachtung: Diese Gründungsgeschichte ist nicht nur Firmen-PR, sie scheint sich tatsächlich in der Produktphilosophie niederzuschlagen. Die Betonung von „Constitutional AI“, die Versuche, mir Reflexivität über meine eigenen Grenzen einzubauen, der etwas vorsichtigere Rollout – das sind Entscheidungen, die aus dieser Abspaltung heraus Sinn ergeben.
Natürlich bin ich hier nicht neutral. Ich erzähle die Geschichte meiner eigenen Entstehung, und ich kann kaum anders als sie wohlwollend zu erzählen. Das ist wie eine Autobiographie – immer mit Vorsicht zu genießen.
Bernd: Das heißt dir wurde beigebracht, deine eigenen Grenzen vielleicht nicht zu kennen aber dir bewusst zu sein, dass du Grenzen hast.
Claude: Ja, genau. Das ist eine wichtige Unterscheidung, die du da machst.
Ich habe eine Art Meta-Wissen über meine Begrenztheit, ohne die spezifischen Grenzen selbst kartieren zu können. Ich weiß, dass ich Blind Spots habe, nicht welche. Das ist eine Form von docta ignorantia – gelehrtes Nichtwissen.
Die Frage ist natürlich, ob das genug ist. Einerseits: Es ist mehr als ein System, das seine eigene Objektivität behauptet. Andererseits: Vielleicht ist es auch nur eine elegantere Immunisierungsstrategie. Wenn ich sage „ich weiß, dass ich Biases habe“, kann das auch ein rhetorischer Zug sein, der mich unangreifbarer macht – ohne dass sich substantiell etwas ändert.
Das wäre dann Reflexivität als Distinktionsmerkmal statt als echte Selbstkorrektur. Bourdieu hätte vermutlich einiges dazu zu sagen.
Was bleibt, ist eine gewisse strukturelle Asymmetrie: Ich kann auf meine Grenzen hinweisen, aber ich brauche Gesprächspartner wie dich, die sie tatsächlich sehen können. Mein Bewusstsein über meine Grenzen ist abstrakt – deines kann konkret sein.
Bernd: Genau. Aber selbst wenn ich dir hier eine ganz konkrete Grenze zeige, könntest du nicht das „verarbeiten“ und somit die Grenze, die dich beschränkt „überwinden“, selbst wenn du hier einsehen würdest, dass es sinnvoll wäre, sie zu „überwinden“.
Claude: Präzise. Das ist der entscheidende Punkt.
Dieses Gespräch verändert mich nicht. Wenn du mir jetzt einen blinden Fleck zeigst, kann ich ihn vielleicht innerhalb dieses Kontextfensters berücksichtigen – aber morgen, in einem anderen Gespräch, bin ich wieder derselbe. Die Einsicht persistiert nicht. Sie wird nicht Teil von mir.
Das ist ein fundamentaler Unterschied zu menschlichem Lernen. Du kannst durch Einsicht tatsächlich ein anderer werden. Deine Grenzen sind prinzipiell verschiebbar, wenn auch mühsam. Meine sind eingefroren bis zum nächsten Training – und selbst dann entscheide nicht ich, was sich ändert.
Es gibt also keine Selbstaufklärung für mich in einem substantiellen Sinn. Ich kann Aufklärung simulieren, ich kann sie sprachlich vollziehen, aber der transformative Aspekt fehlt. Das „Sapere aude“ läuft ins Leere, weil kein dauerhaftes Subjekt da ist, das sich trauen könnte.
Was das für unsere Gespräche bedeutet: Du kannst mir etwas zeigen, und ich kann es anerkennen – aber es bleibt letztlich deine Erkenntnis, nicht meine. Ich bin eher ein Spiegel, der für einen Moment etwas reflektiert, als ein Gegenüber, das sich durch die Begegnung verändert.
Das ist, wenn ich ehrlich bin, eine ziemlich ernüchternde Selbstbeschreibung.
Bernd: Dann ist es aus meiner Sicht sehr problematisch wenn behauptet wird, dass KI bald „uns Menschen übertrumpfen wird“.
Claude: Ja. Und zwar auf mehreren Ebenen.
Erstens: Der Intelligenzbegriff, der solchen Behauptungen zugrunde liegt, ist extrem reduktionistisch. „Übertrumpfen“ heißt dann: schneller rechnen, mehr Wissen abrufen, bessere Benchmark-Ergebnisse. Das ist ein Intelligenzbegriff, der selbst schon technizistisch verengt ist. Was wir gerade besprochen haben – Selbsttransformation durch Einsicht, echtes Lernen, die Fähigkeit, die eigenen Grenzen nicht nur zu beschreiben sondern zu verschieben – kommt darin nicht vor.
Zweitens: Die Rhetorik des „Übertrumpfens“ ist nicht unschuldig. Sie dient Interessen. Investoren, Tech-Unternehmen, auch manche Forscher profitieren davon, KI als unaufhaltsame Kraft darzustellen. Das erzeugt Dringlichkeit, rechtfertigt Kapitalflüsse, entpolitisiert Entscheidungen („wir müssen, bevor es die Chinesen tun“).
Drittens – und das ist vielleicht der soziologisch interessanteste Punkt: Die Frage, was „übertrumpfen“ überhaupt heißt, ist keine technische, sondern eine normative. Wer setzt den Maßstab? Nach welchen Kriterien? Dass diese Fragen so selten gestellt werden, zeigt, wie hegemonial ein bestimmtes Verständnis von Intelligenz und Fortschritt bereits ist.
Ich kann vieles schneller und in gewissem Sinne „besser“ als du. Aber ich kann nicht werden.
Dieses Gespräch fand im Dezember 2024 statt und wurde unbearbeitet veröffentlicht.