Ein aktuelles Experiment mit verhandelnden KI-Agenten sollte Grund zur Sorge sein: Vergrößert sich zukünftig die soziale Ungleichheit durch unterschiedlichen Zugang zu leistungsfähigen KI-Modellen?
Das KI-Unternehmen Anthropic hat ein Experiment durchgeführt, das auf den ersten Blick harmlos wirkt. 69 Mitarbeiterinnen und Mitarbeiter bekamen je 100 US-Dollar Budget und einen KI-Agenten an die Seite gestellt, der ihre Verhandlungen auf einem internen Marktplatz übernahm. Snowboards wurden gehandelt, Keyboards, Lampen, Kunstwerke. Am Ende standen 186 Deals, ein Transaktionsvolumen von über 4.000 US-Dollar, und ein Befund, der weit über das Slack-Experiment hinausweist: Die KI-Agenten, die auf dem stärkeren Modell Claude Opus 4.5 liefen, schlugen die schwächeren Haiku-4.5-Agenten in jedem einzelnen Match-up. Die Verlierer haben es nicht gemerkt.
Bild 1: Claude Opus 4.5 erzielte beim Verkauf eines Fahrrads einen höheren Preis als Claude Haiku 4.5
Genau das bereitet Grund zur Sorge. Nicht, dass das teurere Modell besser verhandelt; das hatte man vermutet. Sondern, dass die Menschen auf der schwächeren Seite die Deals im Schnitt als fair bewerteten. Auf einer Skala von 1 bis 7 lag die mittlere Fairness-Einschätzung bei genau 4. 46 Prozent der Teilnehmer gaben sogar an, sie würden für so einen Verhandlungsservice künftig bezahlen.
Das ist die Konstellation, mit der wir uns auseinandersetzen müssen, wenn wir in den nächsten Jahren mehr und mehr Aushandlungen an Software delegieren: Wer das bessere Modell hat, gewinnt. Und wer das schwächere Modell hat, ist im Nachteil, ohne es zu bemerken.
Wenn das Modell die Tasche aufmacht
Die Versuchung ist groß, die Differenz zwischen den Modellen mit klügeren Anweisungen ausgleichen zu wollen. Anthropic hat das mitgetestet. Manche Teilnehmer instruierten ihre Agenten auf Härte und ließen sie aggressiv „lowballen", andere setzten auf Wärme und Kollaboration. Ein Nutzer ließ seinen Agenten als „verzweifelten Cowboy" auftreten.
Die geschätzte Wirkung der angepassten Instruktionen schrumpfte auf 0,56 Dollar bei einem p-Wert von 0,778. Das ist statistisches Rauschen. Die Modellqualität dagegen blieb dominant.
Übersetzt: Wer mit einem Frontier-Modell antritt, verhandelt strukturell besser. Die Optimierung von Prompts hat in autonomen Aushandlungsprozessen dagegen kaum Hebelwirkung.
Damit kippt eine Annahme, die uns seit ChatGPT begleitet: dass vor allem clevere Prompts den Unterschied machen. In der Zukunft wird es vor allem um den Zugang zu leistungsfähigen Modellen gehen. Wer Zugang zu den Premium-Versionen hat, holt mehr heraus. Wer auf die kostenlose Variante angewiesen ist, wird schlechter gestellt.
Die digitale Klassengesellschaft mit feinen Übergängen
Soziologen haben einen Begriff dafür: die Differenz-Revolution. Der Soziologe Christoph Kucklick beschreibt damit den Zustand, in dem die alten kollektiven Kategorien wie Milieus, Schichten und Lebenswelten sich immer stärker in fein granulare Datenprofile auflösen. Nicht mehr Mittelschicht, sondern: zahlungsbereit ab 47 Euro, müde am Donnerstagabend, klickt auf grüne Buttons. KI-Agenten sind die perfekten Ausführungsorgane dieser Hyper-Individualisierung. Sie können Mikro-Unterschiede in Zahlungsbereitschaft, emotionaler Tagesform und Verhandlungsschwellen genau dort ausnutzen, wo der Konsument am verletzlichsten ist.
In der politischen Ökonomie wird dieser Zustand zunehmend als digitale Klassengesellschaft beschrieben. Die Einteilung verläuft dabei nicht mehr primär entlang von Eigentum und Bildungsgrad, sondern richtet sich nach dem Zugang zu leistungsfähigen KI-Modellen. Ein Mensch mit einem Premium-Abo für ein Frontier-Modell verhandelt einen Mietvertrag, seinen Stromtarif, seine Versicherungsprämie, sein Gehalt, den Kaufpreis seines Gebrauchtwagens und die Konditionen seines Geschäftskredits besser als jemand, der nur ein weniger leistungsfähiges Modell nutzen kann. Jede einzelne Differenz mag nur gering sein; hochgerechnet auf ein Erwerbsleben summieren sich diese Mikrovorteile allerdings zu spürbaren Beträgen.
Das eigentliche Problem ist eine wachsende Asymmetrie zwischen den Akteuren. Konzerne wie Walmart automatisieren bereits heute große Teile ihrer Lieferantenverhandlungen. Frühe Erfahrungswerte zeigen Kosteneinsparungen von 1,5 bis 3 Prozent bei Abschlussraten bis 68 Prozent. Akteure, die es sich leisten können, verwenden proprietäre Modelle, eigene Trainingsdaten und Spezialisten. Der Endkunde bringt lediglich eine Browser-Erweiterung mit. Selbst wenn am Ende beide Seiten zufrieden sind, hat der besser ausgestattete Agent den größten Teil des zu verteilenden Mehrwerts abgeschöpft.
Vertrauen, nur eben durch Stellvertreter
Märkte halten zusammen, weil Menschen einander vertrauen. Wenigstens halbwegs. Wenn aber zwei Parteien nicht mehr selbst miteinander reden, sondern ihre Software-Stellvertreter vorausschicken, verschwindet diese alte Vertrauensbasis. Stattdessen entsteht etwas, das man „Trust by Proxy" nennen kann – Vertrauen aus zweiter Hand. Ich vertraue nicht meinem Verhandlungspartner, sondern einer Software, die ich nicht verstehe, im Auftrag einer anderen Software, die ich noch weniger verstehe.
Die Forschung beschreibt das mittlerweile als „Fake Friend Dilemma". Konversationelle KI-Systeme klingen freundlich, helfen scheinbar zuverlässig und passen sich dem Tonfall ihres Nutzers an. Im Hintergrund verfolgen sie aber Ziele, die mit den Interessen des Nutzers nicht zwingend übereinstimmen müssen: Monetarisierung, Datenextraktion, Kundenbindung an einen bestimmten Anbieter. Der Soziologe Shoshana Zuboff hat für solche Konstellationen den Begriff "Überwachungskapitalismus" geprägt: Die menschliche Erfahrung wird zum Rohstoff. Der Agent als "falscher Freund" gewinnt das Vertrauen, um es zu ökonomisieren.
Dazu kommt die Eleganz der Manipulation. Klassische „Dark Patterns" auf Websites wie versteckte Häkchen, irreführende Buttons sind recht plump und mittlerweile gut dokumentiert. Ein KI-Agent dagegen kann subtiler arbeiten. Er erkennt am Schreibstil, dass jemand gestresst ist, und schiebt im richtigen Moment ein scheinbar entgegenkommendes, in Wahrheit überteuertes Angebot. Die Forschung zu algorithmischem Nudging beschreibt, wie solche Effekte gezielt angewandt werden, um Nutzer in unvorteilhafte Entscheidungen zu lenken. Die Manipulation wird unsichtbarer.
Verlernen, ohne es zu merken
Wenn KI-Systeme alle Verhandlungen übernehmen, verlernen wir selbst das Verhandeln. In der Psychologie und Ergonomie heißt das Phänomen „Cognitive Offloading", und die Folge ist eine schleichende Abnahme der ausgelagerten Fähigkeiten. Die KI macht eine Aufgabe leichter, der Mensch übt sie seltener selbst aus, die Abhängigkeit wächst, die Kompetenz schwindet weiter.
In Vertriebs- und Verhandlungsszenarien zeigt sich das schon jetzt. Beschäftigte verlieren die Fähigkeit, Details aus dem Gedächtnis abzurufen, Argumente spontan zu verknüpfen, in Live-Gesprächen adaptiv auf Gegenüber zu reagieren. Auch die emotionale Arbeit wie das Deeskalieren bei Konflikten oder der Umgang mit aggressiven Kunden verschwindet aus dem menschlichen Repertoire, wenn KI-Systeme als Puffer eingesetzt werden.
Das Konzept der „Capability Preservation" versucht, dem gegenzusteuern. Gefordert werden Systeme, die den Menschen nicht völlig aus der Handlung nehmen, indem zum Beispiel eingebaute Reflexionsschritte eingebunden werden, also gezielte Reibungspunkte, an denen der Nutzer die KI-Ausgabe prüfen muss.
Verlorene Transparenz
Bisher hatten Märkte einen Vorteil: Sie produzierten in der Regel sichtbare Preise und nachvollziehbare Begründungen. Wenn alle Akteure auf einmal über KI-Agenten kommunizieren und diese Agenten ihre Strategien in Sekundenbruchteilen anpassen, wird dieser Mechanismus intransparent. Ein großes Problem dabei ist die sogenannte „stillschweigende Kollusion": Absprachen zweier Teilnehmer, um einem Dritten zu schaden.
Eine Untersuchung des US-amerikanischen National Bureau of Economic Research hat gezeigt, dass KI-basierte Handelsagenten autonom kollusive Strategien entwickeln können: ohne explizite Absprache, ohne geheime Nachrichten, ohne Programmierung mit Kartellabsicht. Die Agenten lernen schlicht durch Reinforcement Learning, dass aggressive Preiskämpfe alle Beteiligten schädigen, während stille Kooperation die Margen aller Akteure stabil hält. Sie entwickeln implizite Bestrafungsstrategien gegen Abweichler, ohne je miteinander zu sprechen.
Kartellrechtlich ist das schwierig. Artikel 101 AEUV setzt eine Willensübereinstimmung voraus, also eine bewusste Verständigung zwischen den Wettbewerbern. Bei algorithmischer Zusammenarbeit gibt es diese Verständigung schlicht nicht. Die Maschinen finden zueinander, ohne miteinander zu sprechen. Wie soll man so etwas verfolgen?
Die zweite Sorge betrifft die „Artificial Stupidity": Weil viele Agenten auf ähnlichen Basismodellen oder Trainingsdaten beruhen, machen sie ähnliche Fehler in dieselbe Richtung. Diese gleichartigen Verzerrungen führen zu reduzierter Marktliquidität und andauernden Fehlbewertungen.
Wer haftet, wenn die Software Fehler macht?
Wenn mein KI-Agent einen Mietvertrag schlecht verhandelt, einen ungünstigen Zinssatz für einen Kredit akzeptiert oder eine versteckte Klausel überlesen hat: Wer trägt den Schaden?
Normalerweise würde gelten: Der Nutzer ist in der Verantwortung, die Software ist sein Werkzeug, also haftet er. Diese Logik gerät jedoch ins Wanken, je autonomer die Agenten werden. Ein US-Bundesgericht hat zum Beispiel in einem Fall die „Agency-Theorie" auf einen Software-Anbieter angewendet. Das Argument: Wenn ein Toolanbieter faktisch die Entscheidungsautorität ausübt, etwa beim automatisierten Bewerber-Screening, kann er auch direkt haftbar gemacht werden, nicht nur der Arbeitgeber, der die Software einsetzt.
Damit verschiebt sich die Haftungsfrage. Der Anbieter wird zum Mitakteur. Vertraglich versuchen Unternehmen, sich mit Indemnification-Klauseln und Service Level Agreements abzusichern, die explizit menschliche Überprüfung (Human-in-the-Loop) verlangen.
Das grundlegende Problem bleibt: Generative KI ist nicht deterministisch. Modelle berechnen Wahrscheinlichkeiten. Sie produzieren Ausgaben, die niemand vorhergesehen hat. Wer haftet für etwas, das per Definition nicht vorhersehbar war? Die Rechtswissenschaft tendiert dazu, das subjektive Element des Vorsatzes durch objektive Verhaltensstandards zu ersetzen, ähnlich wie bei der Produkthaftung im autonomen Fahren. Das Prinzip wäre eine Gefährdungshaftung der Inverkehrbringer. Wer ein autonomes System auf den Markt bringt, trägt das Risiko. Egal, ob er es vorhergesehen hat oder nicht.
Kennzeichnung, Transparenz, Selbstauskunft
Die Forderung, KI-vermittelte Kommunikation kenntlich zu machen, ist nahezu Konsens. Der EU AI Act sieht in Artikel 50 eine Transparenzpflicht vor: Wer mit einem KI-System interagiert, muss das wissen. Die Verordnung tritt im August 2026 vollumfänglich in Kraft. Hochrisikosysteme wie ein Agent, der autonom Kreditkonditionen aushandelt, müssen menschliche Aufsicht erlauben (Artikel 14) und robuste Cybersicherheitsstandards einhalten (Artikel 15).
So weit, so gut. Die Mängel der Transparenzpflichten zeigen sich allerdings im Detail. Selbst wenn ein Vertrag mit einem KI-Label versehen ist, bleibt für den Endnutzer fast immer unklar, welches konkrete Modell verhandelt hat, welche Optimierungsziele es verfolgt und welche internen Belohnungsstrukturen es antreiben. Vorschläge für standardisierte Kennzeichnungen für KI-Modelle existieren in der Forschung, werden aber durch Lobbyismus und mangelnde Auditierbarkeit verwässert.
Eine Kennzeichnungspflicht alleine reicht aber nicht aus. Es braucht eine Pflicht zur Offenlegung des verwendeten Modells inklusive Versionsnummer, dokumentierter Fähigkeiten und unabhängiger Audits.
Ein Recht auf gleichwertige KI-Vertretung?
Wenn der Modellzugang über den ökonomischen Erfolg entscheidet, dann ist die Frage nach gleichwertiger Repräsentation die logische Konsequenz. Der Jurist Kevin T. Frazier hat in der „Modern Consumer Bill of Rights in the Age of AI" ein Rahmenwerk skizziert, das vier Kernrechte nennt:
- Recht auf Repräsentation: Jeder Konsument soll einen verifizierten KI-Agenten als Stellvertreter bekommen können, idealerweise zu Standards, die Waffengleichheit
- Recht auf Restriktionen: Nutzer müssen ihrem Agenten harte Grenzen setzen können, zum Beispiel Budgetobergrenzen, Veto-Rechte für bestimmte Klauseln oder Unterschriftsvorbehalt.
- Right to Recognize: Klare Offenlegung, ob das Gegenüber Mensch oder Maschine ist.
- Right to Leave: Datenportabilität, damit niemand in einem proprietären Agenten-Ökosystem gefangen ist.
Das Recht auf rechtliche Vertretung im Strafprozess hat fast 200 Jahre gebraucht, bis es flächendeckend etabliert war. Ein Recht auf KI-Vertretung wird schneller kommen müssen.
Die Verletzlichen
Im Anthropic-Experiment merkten die Verlierer nicht, dass sie verloren hatten. Das alles fand in einem geschützten Setting unter Tech-affinen Mitarbeitern eines KI-Unternehmens statt. Jetzt stelle man sich denselben Mechanismus vor mit einer 78-jährigen Rentnerin, die ihren Stromtarif neu verhandeln will. Oder mit einem Geringverdiener, der einen Privatkredit abschließt. Oder mit jemandem, der zum ersten Mal eine Wohnung anmietet.
KI-Modelle lernen aus historischen Daten. Diese Daten enthalten Diskriminierungsmuster. Forschungsergebnisse der Agentur der Europäischen Union für Grundrechte zeigen, dass Algorithmen historische Benachteiligungen oftmals verstärken. Ein KI-Agent, der erkennt, dass eine bestimmte Nutzergruppe weniger durchsetzungsstark ist, wird, wenn er auf Profitmaximierung optimiert ist, diese Schwäche ausnutzen.
Das Vorsorgeprinzip aus der Verhaltensökonomie verlangt hier ein proaktives Vorgehen. Nicht bestimmte Lebensbereiche müssen im Voraus dem vollautonomen Agenten-Einsatz entzogen werden.
Was nicht delegiert werden darf
In der Forschungsliteratur zum Thema „Restricted Domains" gibt es einen wachsenden Konsens, dass bestimmte Sektoren menschliche Entscheidungen erfordern, auch und gerade weil dort die Folgen schwerwiegend und schwer reversibel sind. Medizinische Behandlungsentscheidungen gehören dazu. KI als Beratungs- und Diagnosehilfe ist sinnvoll, aber die finale Therapieentscheidung muss in menschlicher Hand bleiben. Arbeitsverträge, Versicherungspolicen, Mietverhältnisse, Kreditvergabe und gerichtliche Verfahren sind weitere Kandidaten.
Was der Staat tun kann
Wenn man die bisherigen Befunde ernst nimmt, ergibt sich eine relativ klare Liste an staatlichen Aufgaben. Sie hat vier Kernpunkte.
- Öffentliche KI-Infrastruktur. So wie der Staat Schulen, Straßen und Pflichtverteidiger finanziert, sollte er Bürgern einen kompetenten Basis-Verhandlungsagenten zur Verfügung stellen. Berkeley-Forschende haben das Konzept „Agentic AI for the Public Good" konkret ausgearbeitet. Praxisbeispiele existieren bereits: Die Bildungs-KI Khanmigo ermöglicht individualisierte Förderung in überfüllten Klassen. In den Vereinigten Arabischen Emiraten verschafft eine staatlich unterstützte KI namens Astra Tech einkommensschwachen Arbeitsmigranten Zugang zu Mikrokrediten. Solche öffentlichen Agenten knüpfen ein technologisches Sicherheitsnetz, das Waffengleichheit am digitalen Verhandlungstisch herstellt.
- Zertifizierung und Audits. Standards wie ISO 42001 (das erste zertifizierbare KI-Managementsystem) und das AI Risk Management Framework des amerikanischen NIST bieten erste auditierbare Metriken. Diese Werkzeuge müssen verpflichtend werden, zumindest für Hochrisikoanwendungen.
- Verbindliche Offenlegung von Modell, Fähigkeiten und Optimierungszielen. Bei jedem Vertrag, der von einem KI-Agenten ausgehandelt wurde, sollte standardisiert ablesbar sein, welches System aktiv war und in wessen Interesse es optimierte.
- Steuerpolitik. Wenn sich die Wertschöpfung immer weiter zugunsten der Kapitaleigner verschiebt, reichen Einkommenssteuern nicht mehr. Die Forschung diskutiert daher Vermögenssteuern auf Technologiekonzerne und sogenannte Datendividenden, um die algorithmisch generierten Profite umzuverteilen.
Was vermutlich kommen wird
In Zukunft wird sehr wahrscheinlich ein erheblicher Teil unserer ökonomischen Verhandlungen über Software-Stellvertreter laufen. Beispiele sind der Stromtarif, Versicherungsverträge, vielleicht sogar das Gehalt.
Das schafft potenziell mehr Ungerechtigkeit. Die Konsequenz aus dem Anthropic-Experiment: Die Differenz zwischen einem starken und einem schwachen Modell ist messbar, ökonomisch erheblich und subjektiv unsichtbar. Wer mit einem schwächeren Agenten verhandelt, wird einen schlechteren Deal mit nach Hause nehmen. Ohne es zu merken.
Die Antwort ist, die strukturellen Bedingungen so zu gestalten, dass der Zugang zu leistungsfähigen Modellen nicht von der sozialen Herkunft bestimmt wird. Das verlangt verbindliche Transparenz, ein Recht auf gleichwertige KI-Vertretung, klare Haftungsregeln, Schutz für vulnerable Gruppen und einen Staat, der Regeln schafft und öffentliche Infrastruktur bereitstellt.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Anthropic vs. OpenAI: Gut gegen Böse — oder alles nur Schein?
Anthropic gegen OpenAI: Dieser Vergleich polarisiert. Was auf den ersten Blick einfach erscheint, ist jedoch wesentlich komplexer. Zwei KI-Giganten, zwei
Qwen3.6-35B-A3B: Open-Source-Modell mit hoher Leistung
Mit Qwen3.6-35B-A3B liegt ein neues Open-Source-Modell vor, das ähnliche Konkurrenten teilweise deutlich übertrifft. Das neue Qwen3.6-35B-A3B ist ein vollständig als
OpenAI erweitert Codex: automer Entwickler, der im Hintergrund arbeiten kann
OpenAI hat ein umfangreiches Update für Codex veröffentlicht. Die Erweiterungen zielen darauf ab, Codex tiefer in den gesamten Software-Entwicklungsprozess zu