Die EU-Kommission prüft, ob ChatGPT künftig als „sehr große Online-Suchmaschine" eingestuft werden soll. Das ist eine Kategorie des Digital Services Acts (DSA), die bislang Konzernen wie Google oder Bing vorbehalten war. Allein ChatGPT kommt in der EU auf rund 120 Millionen monatlich aktive Nutzer. Das übertrifft den gesetzlichen Schwellenwert von 45 Millionen fast um das Dreifache.
Mit der geplanten Einstufung betritt Europa regulatorisches Neuland: Erstmals würde ein KI-Chatbot denselben strengen Regeln unterworfen wie die mächtigsten Informationsplattformen der Welt. Die Frage dabei lautet: Ist das kluge Voraussicht oder bürokratische Selbstfesselung?
Was genau plant die EU?
Der Digital Services Act teilt Online-Dienste in verschiedene Regulierungsstufen ein. Die strengste Kategorie für „sehr große Online-Plattformen" (VLOPs) und „sehr große Online-Suchmaschinen" (VLOSEs) greift ab 45 Millionen monatlich aktiven Nutzern in der EU. Wer diesen Schwellenwert überschreitet, muss umfangreiche Risikobewertungen durchführen, sich jährlichen unabhängigen Audits unterziehen und geprüften Forschern Zugang zu internen Daten gewähren.
Bislang betrifft das Unternehmen wie Facebook, TikTok, Amazon oder die Google Suche. OpenAI wäre der erste reine KI-Anbieter in dieser Kategorie. Und genau darin liegt der Zündstoff. Denn Juristen streiten heftig darüber, ob ein System, das eigenständig Antworten generiert, überhaupt unter die Definition einer Suchmaschine fällt. Eine klassische Suchmaschine indexiert bestehende Webseiten und listet Links auf. ChatGPT dagegen fügt Inhalte auf Basis von Wahrscheinlichkeitsberechnungen zusammen. Ist das vergleichbar?
Befürworter sagen: "Ja". Das Verfassungsblog argumentiert, dass eine Ausnahme für ChatGPT die rechtliche Form über die tatsächliche Funktion stellen würde. Schließlich ersetze ChatGPT für Millionen von Menschen bereits die klassische Google-Suche. Kritiker an der Católica University in Porto halten dagegen, dass ein System, das Wissen aus Trainingsdaten abrufe und neu formuliere, eben keine Suchmaschine sei. Die Grenze zwischen Urheber, Host und Vermittler verschwimme auf eine Weise, die der DSA nie vorgesehen habe.
Die wahren Dimensionen
Wie gewaltig die Verbreitung von ChatGPT inzwischen ist, zeigt ein Blick auf die Nutzerzahlen. Fünf Tage nach dem Start im November 2022 hatte die Plattform bereits eine Million Nutzer. Im Februar 2026 meldete OpenAI 900 Millionen wöchentlich aktive Nutzer weltweit. Das ist mehr als eine Verdoppelung gegenüber dem Vorjahr. Die Website verzeichnet monatlich über fünf Milliarden Besuche, täglich werden rund zwei Milliarden Suchanfragen verarbeitet.
Laut Branchenanalysen nutzen mehr als 40 Prozent der US-Unternehmen ChatGPT systematisch im Kundenservice oder in internen Abläufen. Die Enterprise-Nutzung wuchs 2025 um 24 Prozent. Zehn Millionen Nutzer zahlen für die Premium-Version, der jährliche Umsatz hat die Marke von zehn Milliarden Dollar überschritten. Seit Januar 2026 schaltet OpenAI sogar Werbung innerhalb der Plattform.
In Europa kommt noch eine besondere Brisanz hinzu: Die deutlich mehr als 45 Millionen aktiven Nutzer machen ChatGPT nach den Maßstäben des DSA zu einer systemrelevanten Informationsinfrastruktur. Das zwingt Brüssel quasi zum Handeln.
Warum gerade OpenAI?
Die Fokussierung auf OpenAI ist kein Zufall. Das Unternehmen dominiert den Markt für KI-Anwendungen in Unternehmen mit einer Durchdringungsrate von 37 Prozent (Stand Q2 2025), weit vor dem nächsten Konkurrenten Anthropic mit 14,5 Prozent. Mit über 19 Milliarden Dollar an eingesammeltem Kapital spielt OpenAI finanziell in einer völlig anderen Liga als europäische Wettbewerber wie Mistral AI oder Aleph Alpha, die mit jeweils etwa einer Milliarde Dollar auskommen müssen.
Gleichzeitig hat die Transparenz des Unternehmens dramatisch nachgelassen. Der Foundation Model Transparency Index der Stanford University dokumentiert einen Absturz von OpenAI auf den vorletzten Platz aller bewerteten Unternehmen. Das Unternehmen teile kaum noch Informationen über Trainingsdaten, Modellrisiken oder Gegenmaßnahmen. Auch unabhängige Sicherheitsbewertungen fallen mager aus: Die Organisation SaferAI stuft OpenAIs Risikomanagement mit 1,6 von 5 Punkten als „schwach" ein.
Natürlich steht OpenAI mit diesen Problemen nicht allein. Auch Meta und Mistral AI schneiden im Transparenzindex schlecht ab. Aber die Kombination aus großer Reichweite, schwindender Transparenz und schwachem Risikomanagement macht OpenAI zum logischen ersten Kandidaten für eine strengere Regulierung.
Das Argument für Stärke
Europa ist die einzige Wirtschaftsregion der Welt, die den rechtlichen Rahmen und den politischen Willen besitzt, um generative KI-Systeme dieser Größenordnung verbindlichen Regeln zu unterwerfen. Der DSA verlangt von VLOSEs, dass sie systemische Risiken identifizieren, unabhängige Audits zulassen und geprüften Forschern Datenzugang gewähren. Das geht über alles hinaus, was der EU AI Act oder freiwillige Brancheninitiativen leisten.
Dass solche Regeln nötig sind, zeigen Initiativen wie das Schweizer KI-Modell Apertus, entwickelt von der ETH Zürich und der EPFL. Apertus beweist, dass ein leistungsfähiges, mehrsprachiges KI-Modell auch mit vollem Respekt vor Datenschutz und Transparenz gebaut werden kann; als öffentliche Infrastruktur, vergleichbar mit Straßen oder Stromnetzen. Wenn das möglich ist, darf man von kommerziellen Anbietern ähnliche Standards erwarten.
Auch auf dem Markt wächst die Nachfrage nach europäischer Technologie. Laut einer Umfrage des Digitalverbands Bitkom haben sich 2026 bereits ein Drittel der befragten Entscheider bewusst für europäische Softwareanbieter entschieden. Die Regulierung schafft offenbar Vertrauen – und Vertrauen schafft Märkte.
Das Argument für Schwäche
Doch der Preis dieser Regulierungsdichte ist hoch. Unternehmen in Europa müssen sich gleichzeitig an den AI Act, den DSA, den Digital Markets Act, den Data Act und die DSGVO anpassen. Das ist ein regulatorisches Dickicht, das seinesgleichen sucht. Die Auswirkungen sind messbar: Die bereits erwähnte Bitkom-Umfrage zur Umsetzung des Data Acts zeigt, dass 75 Prozent der betroffenen Unternehmen angeben, ihnen fehle wegen der permanenten Compliance-Arbeit schlicht die Zeit für echte Innovationen. 34 Prozent haben die Entwicklung neuer digitaler Produkte komplett eingestellt.
Kritiker warnen vor dem Verlust „kognitiver Souveränität". Die Regulatory Review formuliert den Vorwurf zugespitzt: Die EU nutze massive Regulierung als Ersatz für eine fehlende industrielle Strategie. Wenn Europa sich darauf beschränke, den Output amerikanischer KI-Systeme zu kontrollieren, ohne selbst genügend in Risikokapital, Recheninfrastruktur und Talent zu investieren, werde es dauerhaft abhängig von importierter, durch Audits verteuerter US-Technologie.
Auch der viel beschworene „Brussels Effect" – die Annahme, dass EU-Regeln automatisch zum globalen Standard werden – erleidet Rückschläge. Die Denkfabrik Brookings konstatiert, dass der EU AI Act zwar globale Auswirkungen haben werde, der Brussels Effect aber nur begrenzt greife. Die Politikwissenschaft hat den Anspruch der EU inzwischen von einer „hegemonialen Doktrin" zu einem „Experimentalismus" herabgestuft. Europa setzt Standards im Verbraucherschutz, gibt aber im Technologiewettlauf nicht mehr allein den Ton an.
Transatlantischer Graben
Besonders brisant sind die außenpolitischen Folgen. Washington betrachtet die europäische Regulierung zunehmend als Angriff auf US-Unternehmen. Das Center for Strategic and International Studies (CSIS) beschreibt eine regelrechte „neue Eindämmungsdoktrin": Die Trump-Administration hat Anfang 2026 Visabeschränkungen gegen fünf hochrangige EU-Beamte verhängt, die an der Ausarbeitung von DSA und DMA beteiligt waren. Gleichzeitig schließt Washington Handelsabkommen mit Ländern in Südamerika und Asien, die gezielt Klauseln enthalten, um die Übernahme europäischer Digitalgesetze zu blockieren.
Noch provokanter: Laut Berichten des Desinformationsportals Disinfo.eu entwickelt das US-Außenministerium ein Portal namens „freedom.gov", das europäischen Nutzern Zugang zu Inhalten verschaffen soll, die unter dem DSA eingeschränkt wurden – inklusive VPN-Funktionalitäten zur Umgehung europäischer Netzblockaden. Ein Bericht des US-Repräsentantenhauses wirft der EU vor, den DSA zur Zensur wahrer Informationen zu missbrauchen. Die geplante VLOSE-Einstufung von OpenAI dürfte dieses toxische diplomatische Klima weiter verschärfen.
Zwischen Leitplanke und Stoppschild
Die geplante Einstufung von ChatGPT als „sehr große Online-Suchmaschine" ist der bislang ambitionierteste Versuch, KI-Systeme demokratischer Kontrolle zu unterwerfen. Europa demonstriert damit den Willen, die weltweit ihresgleichen sucht: das Prinzip der Rechtsstaatlichkeit auf generative KI auszudehnen.
Aber die EU muss aufpassen, dass aus einer Leitplanke kein Stoppschild wird. Wenn drei Viertel der betroffenen Unternehmen melden, dass ihnen die Compliance-Arbeit die Luft zum Innovieren nehme, dann hat Europa ein Umsetzungsproblem. Wenn der juristische Versuch, ein generatives Sprachmodell in die Kategorie „Suchmaschine" zu pressen, nur mit Mühe funktioniert, dann zeigt das die Grenzen eines Rechtsrahmens, der für eine andere technologische Ära konzipiert wurde.
Die Zukunft der europäischen Wettbewerbsfähigkeit wird am Ende nicht davon abhängen, wie viele US-Konzerne Brüssel mit Milliardenstrafen belegt. Sie wird davon abhängen, ob Europa seinen dichten Rechtsrahmen flexibel genug interpretiert – etwa durch den von der Industrie geforderten „Digital Omnibus" zur Vereinfachung und Harnonisierung bestehender Regelungen – und ob gleichzeitig massive Investitionen in eigene KI-Infrastrukturen, Rechenkapazitäten und Talente fließen. Projekte wie Apertus und die AI Factories der europäischen KI-Strategie weisen in die richtige Richtung.
Europa zeigt mit der erwogenen OpenAI-Regulierung starke normative Muskeln. Ob es auch die wirtschaftliche und technologische Ausdauer hat, um im KI-Zeitalter mitzuhalten, bleibt die offene Frage. Eines ist sicher: Die Antwort darauf kann kein Gesetz allein liefern.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
CompreSSM: Neues Verfahren ermöglicht schlankere KI-Modelle
Forscher des MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) haben in Zusammenarbeit mit anderen Instituten wie dem Max-Planck-Institut
Claude Mythos ist da und bringt enorme Chancen und Bedrohungen
Am 7. April stellte Anthropic ein KI-Modell vor, das die Branche aufhorchen ließ: Claude Mythos. Das Modell erweitert die bisherige
Von Claude-Leak bis Mistral-Offensive: Wie die Energiekrise die KI-Welt auf den Kopf stellt
️ Über diese Episode In dieser explosiven Folge diskutieren Yusuf und Christian die größten KI-News der Woche: Der