1. Executive Summary & Status Quo
Der Paradigmenwechsel ist real – aber die Herausforderungen sind es auch
Die Geschichte der Kernfusion ist eine Geschichte der Geduld. Seit den 1950er Jahren arbeiten Wissenschaftler weltweit daran, die Energiequelle der Sonne auf die Erde zu holen. Generationen von Physikern haben ihre Karrieren diesem Ziel gewidmet, und ebenso lange galt der Witz, dass kommerzielle Fusionsenergie „immer 30 Jahre entfernt" sei. Doch 2026 erleben wir einen fundamentalen Wandel in dieser Erzählung. Die Frage hat sich verschoben: Es geht nicht mehr darum, ob Fusion physikalisch funktioniert – das wurde 2022 am National Ignition Facility demonstriert –, sondern darum, wie schnell die Technologie industrialisiert werden kann und welche Engpässe dabei überwunden werden müssen.
Dieser Wandel spiegelt sich in der Investmentlandschaft wider. Über 10 Milliarden US-Dollar privates Kapital sind mittlerweile in Fusionsunternehmen geflossen, und die Investorenprofile haben sich dramatisch verändert. Wo früher primär staatliche Forschungsprogramme und wissenschaftliche Idealisten das Feld dominierten, sind nun die größten Technologiekonzerne der Welt eingestiegen. Microsoft hat einen historischen Power Purchase Agreement mit Helion Energy unterzeichnet, Google DeepMind entwickelt künstliche Intelligenz für die Plasmakontrolle, und NVIDIA liefert die Infrastruktur für digitale Zwillinge, die das Engineering revolutionieren sollen.
Die führenden Unternehmen haben ambitionierte Meilensteine kommuniziert. Commonwealth Fusion Systems plant die Zündung seiner SPARC-Anlage für 2027, Helion Energy verspricht Strom für Microsoft bis 2028, und TAE Technologies hat seinen Demonstrator gestrichen, um direkt zu kommerziellen Prototypen zu springen. Diese Ankündigungen signalisieren Zuversicht, werfen aber gleichzeitig kritische Fragen auf, die im Verlauf dieses Artikels systematisch adressiert werden.
Für Entscheider in Vorstandsetagen und Investment-Komitees bedeutet diese Entwicklung, dass Fusion keine abstrakte Zukunftstechnologie mehr ist, sondern eine Asset-Klasse mit messbaren Meilensteinen, konkreten Risiken und einem entstehenden Zulieferer-Ökosystem. Gleichzeitig warnt die Analyse: Zwischen einer erfolgreichen Plasmazündung im Labor und einem kommerziellen Kraftwerk liegen mindestens fünf „Valleys of Death" – fundamentale Engpässe in Materialqualifikation, Brennstoffkreislauf, Lieferkettenskalierung, realistischer Zeitplanung und Finanzierung –, die unabhängig vom physikalischen Erfolg die Kommerzialisierung verzögern oder sogar verhindern können.
2. Die Grundlagen: Physik für Manager
2.1 Merging vs. Splitting – Zwei Wege zur Energie
Um die technologischen Ansätze der Fusionsindustrie zu verstehen, ist zunächst ein Blick auf die fundamentale Physik notwendig. Die Kernenergie kennt zwei grundsätzlich verschiedene Prozesse, die beide enorme Energiemengen freisetzen, aber auf völlig unterschiedlichen Mechanismen beruhen.
Bei der Kernspaltung, die seit den 1950er Jahren in kommerziellen Kraftwerken genutzt wird, werden schwere Atomkerne wie Uran-235 oder Plutonium durch den Beschuss mit Neutronen in leichtere Fragmente gespalten. Dabei wird Energie frei, weil die Bindungsenergie pro Nukleon in den Spaltprodukten höher ist als im ursprünglichen schweren Kern. Dieser Prozess ist technisch beherrschbar, hat aber bekannte Nachteile: Die Spaltprodukte sind hochradioaktiv und müssen für Zehntausende von Jahren sicher gelagert werden, und unter bestimmten Umständen kann eine unkontrollierte Kettenreaktion eintreten.
Die Kernfusion funktioniert genau umgekehrt. Hier werden leichte Atomkerne – typischerweise die Wasserstoffisotope Deuterium und Tritium – miteinander verschmolzen. Das entstehende Helium hat wiederum eine höhere Bindungsenergie pro Nukleon als die Ausgangskerne, und die Differenz wird als Energie freigesetzt. Die Vorteile sind beträchtlich: Der Brennstoff Deuterium ist praktisch unbegrenzt im Meerwasser verfügbar, die Reaktion erzeugt keine langlebigen radioaktiven Abfälle, und eine unkontrollierte Kettenreaktion ist physikalisch unmöglich, da die Fusionsreaktion bei jeder Störung von selbst erlischt.
2.2 Die Coulomb-Barriere: Warum Fusion so schwer ist
Wenn die Fusion so viele Vorteile bietet, stellt sich die Frage, warum ihre technische Realisierung so außerordentlich schwierig ist. Die Antwort liegt in der elektrostatischen Abstoßung zwischen den positiv geladenen Atomkernen, die in der Physik als Coulomb-Barriere bezeichnet wird.
Atomkerne bestehen aus Protonen und Neutronen. Die Protonen tragen positive elektrische Ladungen, und gleichnamige Ladungen stoßen sich ab. Je näher zwei Kerne einander kommen, desto stärker wird diese Abstoßungskraft. Erst bei extrem kleinen Abständen – etwa 10⁻¹⁵ Meter, also einem Millionstel eines Milliardstels eines Meters – übernimmt die sogenannte starke Kernkraft, die stärker ist als die elektrostatische Abstoßung und die Kerne zusammenschmelzen lässt.
Analogie: „Das Lagerfeuer-Prinzip"
Um diesen Prozess zu veranschaulichen, hilft das Bild eines Lagerfeuers. Jeder weiß: Um ein Feuer zu entzünden, braucht man zunächst Wärme – sei es durch ein Streichholz, einen Funken oder Reibung. Ohne diese Anfangsenergie passiert nichts, selbst wenn genügend Brennstoff vorhanden ist. Bei der Kernfusion verhält es sich ähnlich, nur sind die erforderlichen „Zündtemperaturen" unvorstellbar hoch: 100 bis 150 Millionen Grad Celsius – etwa zehnmal heißer als das Zentrum unserer Sonne.
Warum muss es auf der Erde heißer sein als im Sonnenkern? Die Sonne kompensiert mit ihrer enormen Masse: Ihr gewaltiger Gravitationsdruck presst die Kerne so dicht zusammen, dass Fusion auch bei „nur" 15 Millionen Grad stattfindet. Auf der Erde fehlt uns diese Masse, und wir müssen mit Temperatur kompensieren, um die Kerne schnell genug aufeinander zu schießen.
Bei diesen Temperaturen existiert Materie in einem Zustand, den wir Plasma nennen – ein Gas aus freien Elektronen und Atomkernen. Kein bekanntes Material kann ein solches Plasma berühren, ohne augenblicklich zu verdampfen. Die zentrale technische Herausforderung der Fusionsforschung besteht daher darin, dieses ultraheiße Plasma einzuschließen, ohne dass es mit materiellen Wänden in Kontakt kommt.
Analogie: „Die unsichtbare Flasche"
Stellen Sie sich vor, Sie müssten Wasser transportieren, aber jedes Gefäß, das Sie verwenden, löst sich bei Kontakt mit dem Wasser sofort auf. Die Lösung kann nur eine „unsichtbare Flasche" sein – ein Einschluss ohne materiellen Kontakt. Genau das leisten Magnetfelder für das geladene Plasma: Sie formen eine Art magnetischen Käfig, der das Plasma in der Schwebe hält und von den Reaktorwänden fernhält.
3. Die Erfolgskennzahlen: Das „Q" verstehen
3.1 Qplasma vs. Qeng – Die gefährliche Verwechslung
In der Berichterstattung über Fusionsfortschritte fällt immer wieder ein Begriff: der Q-Faktor. Er gilt als zentrale Metrik für den Erfolg eines Fusionsexperiments. Doch hinter diesem scheinbar einfachen Konzept verbirgt sich eine Komplexität, die in der Kommunikation von Unternehmen und Medien oft verloren geht – mit potenziell irreführenden Konsequenzen für Investoren und Entscheidungsträger.
Der Q-Faktor beschreibt grundsätzlich das Verhältnis von gewonnener zu eingesetzter Energie. Die entscheidende Frage ist jedoch: Welche Energie wird im Zähler und welche im Nenner gemessen? Je nachdem, wie diese Frage beantwortet wird, ergeben sich fundamental unterschiedliche Kennzahlen mit völlig unterschiedlicher Aussagekraft für die kommerzielle Tragfähigkeit.
Der wissenschaftliche Q-Faktor, oft als Qplasma bezeichnet, misst das Verhältnis der im Plasma erzeugten Fusionsenergie zur Energie, die direkt ins Plasma injiziert wird. Als das National Ignition Facility im Dezember 2022 einen Q-Wert über 1 verkündete, war dies ein historischer Meilenstein: Zum ersten Mal hatte ein Fusionsexperiment mehr Energie aus dem Plasma herausgeholt, als hineingesteckt wurde. Konkret wurden 3,15 Megajoule Fusionsenergie aus 2,05 Megajoule Laserenergie gewonnen, die das Target traf.
Was in der Euphorie oft unterging: Die 192 Laser des NIF benötigten etwa 300 Megajoule elektrische Energie, um diese 2,05 Megajoule Lichtenergie zu erzeugen. Der Wirkungsgrad der Laser lag also bei unter einem Prozent. Bezogen auf den tatsächlichen Stromverbrauch der Anlage war das Experiment weit von der Energiegewinnung entfernt.
Hier kommt der wirtschaftlich relevante Q-Faktor ins Spiel, oft als Qeng oder Engineering-Q bezeichnet. Er misst das Verhältnis der elektrischen Nettoleistung, die ein Kraftwerk ins Netz einspeist, zum gesamten elektrischen Verbrauch der Anlage – einschließlich Magneten, Kühlung, Laser, Pumpen, Steuerungssysteme und aller Peripherie. Für ein wirtschaftlich tragfähiges Fusionskraftwerk muss dieser Wert deutlich über 10 liegen, idealerweise bei 25 bis 30. Die Differenz zwischen dem am NIF erreichten Qplasma von etwa 1,5 und dem für Kommerzialisierung notwendigen Qeng von über 25 entspricht einem Faktor von 50 bis 100 in der technologischen Reife.
Für Investoren und Entscheidungsträger ergibt sich daraus eine klare Handlungsempfehlung: Wenn ein Fusionsunternehmen „Q über 1" kommuniziert, müssen drei Fragen gestellt werden. Erstens: Handelt es sich um Qplasma oder Qeng? Zweitens: Welche Energieformen sind im Nenner enthalten? Drittens: Wie skaliert dieser Wert auf industrielle Größe?
3.2 Die Lawson-Kriterien: Das Triple-Produkt
Neben dem Q-Faktor gibt es einen weiteren fundamentalen Maßstab, der die physikalischen Anforderungen an ein funktionierendes Fusionsplasma beschreibt. Der britische Ingenieur John Lawson formulierte 1957 die nach ihm benannten Kriterien, die drei Parameter verknüpfen: Temperatur, Dichte und Einschlusszeit.
Die Temperatur muss hoch genug sein, damit die Kerne die Coulomb-Barriere überwinden können – typischerweise über 100 Millionen Kelvin. Die Dichte bestimmt, wie viele Reaktionspartner pro Volumeneinheit zur Verfügung stehen; je dichter das Plasma, desto häufiger kollidieren Kerne. Die Einschlusszeit beschreibt, wie lange das Plasma unter Fusionsbedingungen gehalten werden kann, bevor es seine Energie verliert oder auseinanderfällt.
Das Produkt dieser drei Größen – das sogenannte Triple-Produkt – muss einen kritischen Schwellenwert überschreiten, damit eine selbsterhaltende Fusionsreaktion möglich wird. Die verschiedenen technologischen Ansätze, die im folgenden Kapitel vorgestellt werden, unterscheiden sich fundamental darin, wie sie dieses Triple-Produkt erreichen: durch sehr lange Einschlusszeiten bei moderater Dichte (Tokamak), durch extreme Dichte bei ultrakurzer Einschlusszeit (Trägheitseinschluss) oder durch Hybridansätze, die einen Mittelweg suchen.
4. Die 5 Architektur-Konzepte: Der Wettbewerb
Die Fusionsindustrie ist kein monolithisches Feld, sondern ein Wettbewerb verschiedener technologischer Philosophien. Jeder Ansatz versucht, das Lawson-Kriterium auf unterschiedliche Weise zu erfüllen, und jeder bringt spezifische Vor- und Nachteile mit sich. Für Investoren und strategische Entscheider ist das Verständnis dieser Unterschiede essentiell, da sie die Risikoprofile, Zeitpläne und Kapitalbedürfnisse der jeweiligen Unternehmen bestimmen.
4.1 Magnetischer Einschluss: Tokamak & Stellarator
Der magnetische Einschluss ist der am längsten erforschte und am weitesten entwickelte Ansatz zur Fusionsenergie. Seine Grundidee entspringt einer eleganten physikalischen Einsicht: Geladene Teilchen – und Plasma besteht ausschließlich aus solchen – folgen Magnetfeldlinien. Wenn es gelingt, ein Magnetfeld zu formen, dessen Feldlinien in sich geschlossen sind und nirgendwo auf materielle Wände treffen, kann das Plasma theoretisch unbegrenzt eingeschlossen werden.
Die technische Umsetzung dieser Idee führte zum Tokamak, einer Erfindung sowjetischer Physiker in den 1950er Jahren. Der Name ist ein russisches Akronym für „toroidale Kammer mit Magnetspulen". Die Geometrie ist die eines Donuts oder Torus: Das Plasma strömt in einem ringförmigen Vakuumgefäß, eingeschlossen von einem komplexen Magnetfeld, das aus der Überlagerung mehrerer Feldkomponenten entsteht. Toroidale Spulen um den Ring erzeugen ein Feld in Umlaufrichtung, während poloidale Spulen und ein induzierter Plasmastrom für die notwendige Verdrillung der Feldlinien sorgen.
Der Stellarator, eine hauptsächlich in Deutschland weiterentwickelte Variante, erreicht diese Verdrillung allein durch die komplexe dreidimensionale Form seiner Magnetspulen, ohne auf einen Plasmastrom angewiesen zu sein. Dies eliminiert bestimmte Instabilitäten, erfordert aber eine weitaus kompliziertere Fertigung.
Commonwealth Fusion Systems (CFS) aus den USA, ein Spin-off des Massachusetts Institute of Technology, verfolgt den Tokamak-Ansatz mit einer entscheidenden Innovation: Hochtemperatur-Supraleiter auf Basis von REBCO-Bändern ermöglichen Magnetfeldstärken von über 20 Tesla, verglichen mit etwa 12 Tesla bei konventionellen Supraleitern. Da die Einschlussfähigkeit mit dem Quadrat der Feldstärke skaliert, erlaubt dies dramatisch kompaktere Reaktordesigns. CFS plant, seine SPARC-Anlage 2027 zu zünden und arbeitet in Partnerschaft mit NVIDIA an digitalen Zwillingen für Echtzeit-Simulation des Reaktorverhaltens.
Tokamak Energy aus Großbritannien setzt auf einen sphärischen Tokamak – eine kompaktere Variante mit äpfelförmigem statt donutförmigem Querschnitt. Diese Geometrie ermöglicht ein höheres Verhältnis von Plasmadruck zu Magnetfelddruck (das sogenannte Beta), was die Effizienz steigert. Das Unternehmen profitiert von der fusionsfreundlichen britischen Regulierung.
Proxima Fusion aus Deutschland, ein Spin-off des Max-Planck-Instituts für Plasmaphysik, verfolgt den Stellarator-Ansatz. Der Vorteil liegt im inhärent stationären Betrieb ohne die Disruption-Risiken des Tokamaks; der Nachteil in der komplexeren und teureren Magnetgeometrie.
4.2 Trägheitseinschluss: Die kontrollierte Mikroexplosion
Während der magnetische Einschluss versucht, das Plasma möglichst lange zusammenzuhalten, verfolgt der Trägheitseinschluss eine radikal andere Strategie. Hier wird das Plasma so schnell komprimiert, dass es keine Zeit hat zu entkommen – die eigene Trägheit der Materie dient als Einschlussmechanismus.
Analogie: „Der Verbrennungsmotor"
Ein Fusionsreaktor nach dem Trägheitsprinzip funktioniert konzeptionell wie ein Verbrennungsmotor mit seinen vier Takten. Zunächst wird Brennstoff eingespritzt – ein millimetergroßes Pellet aus gefrorenem Deuterium-Tritium. Dann erfolgt die Zündung: Hochenergetische Laser oder andere Treiber komprimieren das Pellet innerhalb von Nanosekunden auf das Dreißigfache der Dichte von Blei. In diesem Moment herrschen für einen winzigen Augenblick Bedingungen wie im Kern der Sonne, und Fusionsreaktionen setzen ein. Die freigesetzten Neutronen werden in einem umgebenden Blanket eingefangen und erzeugen Wärme, die letztlich Dampfturbinen antreibt. Dann beginnt der Zyklus von vorn.
Der entscheidende Unterschied zum Automobil: Während Ihr Motor mit 3.000 Umdrehungen pro Minute läuft, muss ein kommerzielles Trägheitsfusionskraftwerk diesen Zyklus mit einer Frequenz von 5 bis 15 Hertz durchführen – also 5 bis 15 Mikroexplosionen pro Sekunde, präzise, zuverlässig und wirtschaftlich, über Jahrzehnte hinweg.
First Light Fusion aus Großbritannien verfolgte ursprünglich eine innovative Variante dieses Ansatzes: Statt teurer Laser sollte ein elektromagnetisch beschleunigtes Projektil die Kompression erzeugen. 2025/26 vollzog das Unternehmen jedoch einen strategischen Schwenk, der für die Branche aufschlussreich ist. Die Erkenntnis, dass die notwendige Wiederholrate für kommerzielle Stromerzeugung mit Projektilen schwer erreichbar ist, führte zu einem Pivot: First Light positioniert sich nun als Anbieter von Neutronenquellen für Materialforschung und Medizintechnik. Dies ist kein Scheitern, sondern ein pragmatisches Erkennen von Zwischenmärkten – ein typisches Muster in der Deep-Tech-Entwicklung, wo der erste Use Case selten der finale ist.
4.3 Magnetized Target Fusion: Der Hybrid-Ansatz
Zwischen den Extremen des magnetischen Einschlusses mit langen Einschlusszeiten und des Trägheitseinschlusses mit extremer Kompression existiert ein Spektrum von Hybridansätzen, die Elemente beider Welten kombinieren. Die Magnetized Target Fusion ist einer davon.
Das Grundprinzip lässt sich wie folgt verstehen: Ein Plasma wird zunächst durch Magnetfelder vorgeformt und stabilisiert, dann aber mechanisch komprimiert, um die Fusionsbedingungen zu erreichen. Das Magnetfeld hält das Plasma während der Kompression zusammen und verbessert die Energiebilanz, während die mechanische Kompression die notwendigen Temperaturen und Dichten erzeugt.
General Fusion aus Kanada setzt dieses Konzept mit einer bemerkenswerten Ingenieursleistung um. Flüssiges Metall – eine Blei-Lithium-Legierung – rotiert in einem Gefäß und bildet durch die Zentrifugalkraft eine Kavität in der Mitte. In diese Kavität wird ein magnetisiertes Plasma injiziert. Dann feuern hunderte pneumatische Kolben synchron auf die Außenwand des Gefäßes und komprimieren das flüssige Metall – und mit ihm das Plasma – auf Fusionsbedingungen. Das flüssige Metall dient gleichzeitig als Blanket zur Energieabsorption.
Die technischen Herausforderungen sind beträchtlich: Die Synchronisation von etwa 500 Kolben muss auf Mikrosekunden genau erfolgen, die Materialermüdung durch repetitive Schocks muss beherrscht werden, und die Repetitionsrate muss für wirtschaftlichen Betrieb skaliert werden. General Fusion baut derzeit seine LM26-Demonstrationsanlage (Lawson Machine 26) in Richmond, Kanada in Partnerschaft mit der UK Atomic Energy Authority.
4.4 Field Reversed Configuration: Das selbstorganisierte Plasma
Die Field Reversed Configuration, kurz FRC, repräsentiert einen Ansatz, der die Komplexität externer Magnetsysteme reduziert, indem das Plasma sein eigenes einschließendes Magnetfeld erzeugt. Das Konzept basiert auf einer besonderen Eigenschaft von Plasmaströmungen: Unter bestimmten Bedingungen können sie stabile, selbstorganisierte Strukturen bilden, deren interne Ströme ein Magnetfeld erzeugen, das von außen betrachtet „umgekehrt" erscheint – daher der Name.
Man kann sich ein FRC-Plasma wie einen Rauchring vorstellen: eine toroidale Wirbelstruktur, die durch ihre eigene Dynamik zusammengehalten wird. Im Gegensatz zum Tokamak, der massive externe Magnetspulen benötigt, ist ein FRC-Plasma kompakt und kann mit vergleichsweise einfacher Hardware erzeugt werden.
Helion Energy aus den USA hat diesen Ansatz mit einer weiteren Innovation kombiniert. Zwei FRC-Plasmoide werden in entgegengesetzten Enden einer linearen Anlage erzeugt und auf hohe Geschwindigkeit beschleunigt. In der Mitte kollidieren sie und komprimieren sich gegenseitig auf Fusionsbedingungen. Besonders bemerkenswert ist Helions geplanter Brennstoffzyklus: Statt der üblichen Deuterium-Tritium-Reaktion will das Unternehmen Deuterium mit Helium-3 fusionieren. Diese Reaktion produziert deutlich weniger Neutronen und ermöglicht theoretisch eine direkte Umwandlung der Fusionsenergie in Elektrizität – ohne den Umweg über Dampfturbinen.
Der Microsoft Power Purchase Agreement, der Stromlieferungen ab 2028 vorsieht, ist die erste kommerzielle Fusionsvereinbarung der Geschichte. Ob dieser Zeitplan realistisch ist, wird im Kapitel zu den Valleys of Death kritisch beleuchtet.
TAE Technologies, ebenfalls aus den USA, verfolgt einen ähnlichen FRC-Ansatz, stabilisiert das Plasma aber durch Neutral Beam Injection. Das Unternehmen hat kürzlich seinen Demonstrator gestrichen und will direkt zu kommerziellen Prototypen springen – eine risikoreiche Strategie, die entweder zu beschleunigtem Erfolg oder zu kostspieligen Rückschlägen führen kann.
4.5 Z-Pinch: Der elektrische Einschluss
Der Z-Pinch nutzt einen fundamentalen elektromagnetischen Effekt: Wenn ein elektrischer Strom durch ein leitfähiges Medium fließt, erzeugt er ein ringförmiges Magnetfeld um sich herum. Dieses Feld übt eine nach innen gerichtete Kraft auf das stromführende Medium aus – den sogenannten Pinch-Effekt. Bei ausreichend hohen Strömen kann diese Kraft ein Plasma auf Fusionsbedingungen komprimieren.
Das klassische Problem des Z-Pinch liegt in seiner Instabilität. Kleine Störungen verstärken sich exponentiell und führen zu charakteristischen „Kink"- und „Sausage"-Instabilitäten, die das Plasma zerreißen, bevor Fusion einsetzen kann. Jahrzehntelang galt dieser Ansatz daher als Sackgasse.
Zap Energy aus den USA hat eine elegante Lösung für dieses Problem gefunden: den Sheared-Flow Stabilized Z-Pinch. Durch eine gescherte Strömung – das Plasma bewegt sich in verschiedenen Radien mit unterschiedlichen Geschwindigkeiten – werden die Instabilitäten unterdrückt. Das Resultat ist ein konzeptionell einfaches System, das keine teuren Supraleiter benötigt.
Die „Century"-Plattform, Zaps neueste Experimentalanlage, führt eine weitere Innovation ein: flüssiges Wismut als Plasma-facing Material und Neutronenmoderator. Die Eleganz dieses Ansatzes liegt darin, dass ein flüssiges Material keine Strahlenschäden akkumulieren kann – die durch Neutronenbeschuss erzeugten Defekte „heilen" kontinuierlich aus, weil die Atome in der Flüssigkeit mobil sind. Allerdings bringt flüssiges Metall eigene Herausforderungen mit sich, insbesondere Korrosion und Kontamination.
5. Die Valleys of Death: Eine Risiko-Analyse für Entscheider
Die Fusionsindustrie kommuniziert verständlicherweise primär ihre Erfolge und Meilensteine. Für Investoren, strategische Partner und politische Entscheidungsträger ist jedoch das Verständnis der Risiken mindestens ebenso wichtig. Die folgenden fünf „Valleys of Death" – kritische Engpässe, an denen Projekte scheitern können – sind unabhängig vom physikalischen Erfolg der Plasmaexperimente und betreffen die gesamte Branche.
5.1 Valley 1: Materialqualifikation
Die Fusionsreaktion zwischen Deuterium und Tritium erzeugt Neutronen mit einer Energie von 14,1 Megaelektronenvolt. Diese Neutronen sind die energiereichsten, die in großtechnischen Anwendungen auftreten, und sie stellen die Materialwissenschaft vor Herausforderungen, für die es bisher keine validierten Lösungen gibt.
Wenn ein schnelles Neutron auf ein Atom in einem Strukturmaterial trifft, kann es dieses aus seinem Platz im Kristallgitter schlagen. Dieser Prozess, „displacement damage" genannt, erzeugt Defekte, die sich akkumulieren und die mechanischen Eigenschaften des Materials degradieren. Zusätzlich können Neutronen Kernreaktionen auslösen, die Helium- und Wasserstoffatome im Material erzeugen. Diese Gasatome sammeln sich an Korngrenzen und bilden Blasen, die zu Versprödung führen. Das Material schwillt an, wird spröde und versagt schließlich.
Die zentrale Messgröße für diese Schäden ist „dpa" – displacements per atom –, also wie oft im Durchschnitt jedes Atom aus seiner Position geschlagen wird. Für die erste Wand eines Fusionsreaktors werden Materialien benötigt, die mehr als 50 dpa überstehen. Zum Vergleich: In Spaltungsreaktoren treten typischerweise 10 bis 20 dpa auf, und selbst dort ist Materialermüdung ein bekanntes Problem.
Das grundlegende Dilemma besteht darin, dass es derzeit keine Anlage gibt, die Materialien unter fusionsrelevanten Bedingungen testen kann. Die International Fusion Materials Irradiation Facility IFMIF-DONES, eine beschleunigerbasierte Neutronenquelle mit fusionsähnlichem Spektrum, wird derzeit in Granada, Spanien, gebaut. Bis diese Anlage Daten liefert, können Materialien nicht für den Einsatz in kommerziellen Fusionskraftwerken zertifiziert werden – ein klassisches Henne-Ei-Problem.
5.2 Valley 2: Der Brennstoffkreislauf
Die meisten Fusionskonzepte setzen auf die Deuterium-Tritium-Reaktion, weil sie bei den niedrigsten Temperaturen zündet und die höchste Reaktionsrate bietet. Während Deuterium praktisch unbegrenzt aus Meerwasser gewonnen werden kann, ist Tritium ein seltenes und kurzlebiges Isotop, dessen Verfügbarkeit einen fundamentalen Engpass darstellt.
Der weltweite Tritiumbestand beträgt etwa 50 Kilogramm, hauptsächlich als Nebenprodukt von Schwerwasserreaktoren in Kanada. Ein kommerzielles Fusionskraftwerk würde jedoch etwa 150 Kilogramm pro Jahr verbrauchen. Hinzu kommt, dass Tritium mit einer Halbwertszeit von 12,3 Jahren zerfällt – der Bestand schrumpft also kontinuierlich, selbst wenn er nicht genutzt wird.
Die Lösung liegt im sogenannten Tritium-Breeding: Die bei der Fusion entstehenden Neutronen treffen auf ein Blanket aus Lithium, das den Reaktor umgibt. Dabei entstehen Tritium und Helium. Das Tritium wird extrahiert und wieder in den Reaktor eingeschossen. Für einen geschlossenen Brennstoffkreislauf muss das Tritium Breeding Ratio – das Verhältnis von erzeugtem zu verbrauchtem Tritium – über 1,05 liegen, um Verluste durch Zerfall, Leckagen und unvollständige Extraktion auszugleichen.
Diese Technologie ist jedoch noch nicht demonstriert. Unity 2 von Kyoto Fusioneering soll das Tritium-Breeding validieren, aber bis dahin bleibt dies ein großes Fragezeichen t.
Ein weiteres Problem liegt in der Lithiumversorgung. Natürliches Lithium besteht zu 92,5 Prozent aus Lithium-7 und nur zu 7,5 Prozent aus dem für effizientes Breeding benötigten Lithium-6. Eine Anreicherung ist notwendig, doch das historische Standardverfahren COLEX nutzte giftiges Quecksilber und wurde in den USA 1963 verboten. Im Westen existierten praktisch keine industriellen Lithium-6-Produktionskapazitäten.
Eine positive Entwicklung: 2025 wurde ein neues, quecksilberfreies Verfahren entwickelt, basierend auf Keramikmembranen. Forscher der ETH Zürich und Texas A&M haben ein Verfahren mit Zeta-Vanadiumoxid entwickelt, das Lithium-6 selektiv extrahiert. Die Skalierung auf industrielle Kapazitäten steht jedoch noch aus.
Das Ergebnis ist ein klassisches Henne-Ei-Problem: Wer baut Lithium-6-Anreicherungsanlagen, solange kein Fusionskraftwerk bestellt ist? Und wer baut ein Fusionskraftwerk, wenn kein Tritium verfügbar ist?
5.3 Valley 3: Supply Chain Scaling
Selbst wenn die Technologie funktioniert und die Brennstoffversorgung gesichert ist, fehlen die Fertigungskapazitäten für Schlüsselkomponenten. Ohne Gigafactories für Hochtemperatur-Supraleiter oder industrielle Lithium-6-Anreicherung wird die Kommerzialisierung verzögert.
Das kritischste Beispiel sind die HTS-Bänder auf Basis von REBCO (Rare Earth Barium Copper Oxide), die für die kompakten Hochfeldmagnete von CFS und anderen Unternehmen benötigt werden. Die Herstellung erfolgt durch Pulsed Laser Deposition, ein Verfahren, bei dem REBCO-Schichten Atom für Atom auf Metallbänder aufgetragen werden. Die weltweite Produktionskapazität liegt bei etwa 1.000 bis 2.000 Kilometern pro Jahr. Ein einzelner Fusionsreaktor benötigt jedoch 500 bis 1.000 Kilometer, und für eine Skalierung der Industrie wären Zehntausende Kilometer pro Jahr notwendig.
Analogie: „Der Halbleiter-Moment"
Die Parallele zur Halbleiterindustrie während der Pandemie ist instruktiv. Plötzlich wollten alle Chips, und die Automobilindustrie kam zum Stillstand. Die Lieferketten waren nicht auf die Nachfrage ausgelegt, und die Kapazitätserweiterung dauerte Jahre. Bei HTS könnte dasselbe passieren – mit dem Unterschied, dass die Fertigungstechnologie noch komplexer und die Anbieterbasis noch schmaler ist.
Die Abhängigkeit von wenigen Lieferanten – SuperPower in den USA, SuperOx in Russland (mit Sanktionsrisiko), THEVA in Deutschland, Fujikura in Japan und SuNam in Südkorea – schafft geopolitische Verwundbarkeiten, die strategische Investoren berücksichtigen müssen.
5.4 Valley 4: Timeline-Realität
Die kommunizierten Zeitpläne der Fusionsunternehmen sind extrem ambitioniert. Helion verspricht Strom für Microsoft bis 2028, Commonwealth Fusion Systems will SPARC 2027 zünden, und TAE Technologies hat seinen Demonstrator gestrichen und will direkt zu kommerziellen Prototypen springen.
Diese Zeitpläne stehen in einem bemerkenswerten Kontrast zur Geschichte der Fusionsforschung. ITER, das internationale Tokamak-Projekt in Frankreich, wurde 1985 konzipiert, 2006 vertraglich fixiert und sollte ursprünglich 2016 sein erstes Plasma erzeugen. Der aktuelle Zeitplan sieht dies für 2035 vor – eine Verzögerung von fast zwei Jahrzehnten. Die Kosten sind von ursprünglich geschätzten 5 Milliarden Euro auf über 20 Milliarden Euro gestiegen.
Natürlich sind private Unternehmen agiler als internationale Konsortien, und die Fortschritte bei HTS-Magneten und Simulationstechnologie sind real. Dennoch sollten Investoren die historische Tendenz zur Unterschätzung von Komplexität und Zeitbedarf in der Fusionsentwicklung einkalkulieren. Die Differenz zwischen „physikalisch demonstriert" und „industriell skaliert" ist in der Deep-Tech-Geschichte regelmäßig unterschätzt worden.
5.5 Valley 5: Finanzierung und Kapitaleffizienz
Die Entwicklung eines Fusionskraftwerks erfordert Kapitaleinsätze, die selbst für gut finanzierte Startups eine Herausforderung darstellen. Die SPARC-Anlage von CFS kostet mehrere Milliarden Dollar, und ein kommerzielles Kraftwerk würde noch einmal deutlich teurer werden. Die Frage ist, ob private Investoren die Geduld und die Taschen haben, um diese Entwicklung bis zur Profitabilität zu finanzieren.
Das Milestone-based Fusion Development Program der US-Regierung versucht, diese Lücke zu adressieren, indem Risiken zwischen öffentlichem und privatem Sektor geteilt werden. Ähnliche Programme entstehen in Großbritannien und anderen Ländern. Dennoch bleibt die Finanzierung eines der kritischsten Risiken: Wenn ein Unternehmen einen wichtigen Meilenstein verfehlt oder verzögert, kann der Kapitalmarkt schnell das Vertrauen verlieren.
Für Investoren ergibt sich daraus eine klare Implikation: Die Bewertung von Fusionsunternehmen muss nicht nur die technologische Tragfähigkeit berücksichtigen, sondern auch die Kapitaleffizienz, die Qualität des Managements im Umgang mit Verzögerungen und die Diversifikation der Finanzierungsquellen.
6. Digitalisierung & KI: Die unsichtbaren Enabler
6.1 KI für Plasmakontrolle
Plasma in einem Fusionsreaktor ist ein hochkomplexes, nichtlineares System, das auf kleinste Störungen mit dramatischen Instabilitäten reagieren kann. Im Tokamak sind besonders die sogenannten Edge Localized Modes und Disruptions gefürchtet – plötzliche Energieentladungen, die das Plasma abrupt beenden und die Reaktorwände beschädigen können. Die Vorhersage und Vermeidung solcher Ereignisse ist eine der größten Herausforderungen des Reaktorbetriebs.
Traditionelle Regelungssysteme stoßen hier an ihre Grenzen, weil die relevanten Zeitskalen extrem kurz sind und die Systemdynamik zu komplex für analytische Modelle. Hier setzt die Zusammenarbeit zwischen DeepMind und der EPFL an: Reinforcement Learning, eine Form des maschinellen Lernens, bei der ein Algorithmus durch Versuch und Irrtum optimales Verhalten lernt, wird auf die Plasmakontrolle angewandt.
Die KI wird zunächst auf Millionen von Simulationen trainiert und lernt, Instabilitäten vorherzusagen, bevor sie eintreten. Im Echtzeiteinsatz kann sie dann die Magnetfeldkonfiguration und andere Stellgrößen anpassen, um das Plasma zu stabilisieren. Die Herausforderung liegt in der Inferenzgeschwindigkeit: Die KI muss Entscheidungen in unter einer Millisekunde treffen, um mit den Plasma-Zeitskalen Schritt zu halten.
6.2 Digital Twins für Engineering
Die Partnerschaft zwischen Commonwealth Fusion Systems und NVIDIA zielt auf die Erstellung eines vollständigen digitalen Zwillings des SPARC-Reaktors. Ein Digital Twin ist mehr als eine Simulation – es ist ein kontinuierlich mit Echtzeitdaten synchronisiertes virtuelles Abbild einer physischen Anlage, das Vorhersagen über deren Verhalten ermöglicht.
Für ein System von der Komplexität eines Fusionsreaktors müssen verschiedene physikalische Domänen gekoppelt werden: Plasmaphysik, Thermomechanik, Neutronik, Elektromagnetik und Strömungsmechanik. Die NVIDIA Omniverse-Plattform bietet die notwendige Rechenleistung und die Infrastruktur für kollaboratives Engineering über verteilte Teams hinweg.
Die Anwendungen sind vielfältig: Design-Optimierung vor dem Bau, Vorhersage von Wartungsbedarf, Training von Operatoren und – besonders wichtig – die Erstellung von Nachweisen für Regulierungsbehörden. Ein validierter Digital Twin kann zeigen, wie der Reaktor auf verschiedene Störszenarien reagiert, ohne dass diese physisch getestet werden müssen.
Für CTOs und CIOs jenseits der Fusionsindustrie ist diese Entwicklung relevant, weil die hier entwickelten Tools und Methoden auf andere komplexe industrielle Systeme übertragbar sein werden – von chemischen Anlagen über pharmazeutische Produktion bis zur Luftfahrt.
7. Regulierung & Geopolitik
7.1 Das regulatorische Patchwork
Die Regulierung von Fusionskraftwerken ist ein Feld im Fluss, und die Entscheidungen, die heute getroffen werden, können die Wettbewerbsfähigkeit ganzer Regionen für Jahrzehnte bestimmen.
In den USA hat die Nuclear Regulatory Commission 2023 eine richtungsweisende Entscheidung getroffen: Fusionskraftwerke werden nicht unter die strengen Regularien für Spaltungsreaktoren (Part 50) fallen, sondern unter die deutlich leichteren Vorschriften für Nebenproduktmaterial (Part 30). Der Unterschied ist erheblich: Eine Part-50-Lizenz kann ein Jahrzehnt dauern und hunderte Millionen Dollar kosten; Part-30-Verfahren sind schneller und günstiger. Diese Entscheidung reflektiert die inhärente Sicherheit der Fusion – keine Kettenreaktion, kein Meltdown-Risiko, keine langlebigen Abfälle.
Großbritannien hat einen ähnlich fusionsfreundlichen Kurs eingeschlagen und positioniert sich aktiv als Standort für Fusionsunternehmen. Culham, der Sitz der UK Atomic Energy Authority, entwickelt sich zum europäischen Hub für private Fusionsentwicklung.
Die Europäische Union präsentiert ein komplexeres Bild. Es gibt keinen einheitlichen Regulierungsrahmen, und private Unternehmen wie Proxima Fusion oder Marvel Fusion müssen nationale Regelungen navigieren. ITER dominiert als öffentliches Flaggschiffprojekt die Ressourcen und die politische Aufmerksamkeit, was private Initiativen erschweren kann.
7.2 Geopolitische Dimensionen
Die Fusionsentwicklung findet nicht im geopolitischen Vakuum statt. China investiert massiv in seine EAST-Anlage und hat wiederholt Rekord-Einschlusszeiten demonstriert. Die Fähigkeit, HTS-Bänder in großem Maßstab zu produzieren, könnte zu einem strategischen Asset werden, ähnlich wie die Dominanz bei Solarmodulen oder Batterien.
Die Abhängigkeit von SuperOx, einem der führenden HTS-Hersteller mit Sitz in Russland, illustriert die Verwundbarkeit der Lieferketten. Sanktionen können den Zugang zu kritischen Komponenten über Nacht unterbrechen. Für westliche Fusionsunternehmen und ihre Investoren ist die Diversifikation der Lieferketten daher nicht nur eine wirtschaftliche, sondern auch eine strategische Notwendigkeit.
8. Fazit & Ausblick
8.1 Realistische Zeitpläne
Die Fusionsindustrie steht an einem Wendepunkt. Die physikalische Machbarkeit ist demonstriert, private Investitionen fließen in Rekordhöhe, und die regulatorischen Rahmenbedingungen verbessern sich. Gleichzeitig sind die Herausforderungen in Materialwissenschaft, Brennstoffversorgung, Lieferketten, Zeitplanung und Finanzierung real und dürfen nicht unterschätzt werden.
Eine nüchterne Einschätzung der Zeitpläne:
Für das erste Erreichen von Qeng über 1 – also einer Anlage, die netto Energie produziert, wenn alle Systemverluste eingerechnet werden – ist ein optimistisches Szenario 2030, ein realistisches 2035, ein pessimistisches 2040 oder später.
Für das erste netzgekoppelte Pilotkraftwerk, das tatsächlich Strom ins Netz einspeist, liegt das optimistische Szenario bei 2033, das realistische bei 2038, das pessimistische bei 2045 oder später.
Für eine kommerzielle Flotte von mehr als zehn Anlagen ist vor 2045 im optimistischen, vor 2055 im realistischen und vor 2065 im pessimistischen Szenario nicht zu rechnen.
8.2 Investment-These: „Pick-and-Shovel"
Für Investoren, die an der Fusionsentwicklung partizipieren wollen, ohne das volle Technologierisiko zu tragen, bietet sich eine „Pick-and-Shovel"-Strategie an – benannt nach den Händlern, die während des Goldrauschs Werkzeuge verkauften und unabhängig davon profitierten, wer Gold fand.
Kandidaten für solche Investments sind HTS-Hersteller, die von jedem Erfolg im magnetischen Einschluss profitieren; Unternehmen im Bereich Vakuumtechnologie und Präzisionsfertigung; Anbieter von Simulations- und Digital-Twin-Software; und Spezialisten für Tritium-Handling und Lithium-Anreicherung.
8.3 Die entscheidende Frage
Die kommenden Jahre werden zeigen, ob die private Fusionsindustrie ihre ambitionierten Zeitpläne einhalten kann oder ob die historischen Muster von Verzögerungen und Kostenüberschreitungen sich wiederholen. Für Entscheider in Unternehmen, Investmentfonds und Politik gilt es, die Entwicklung aufmerksam zu verfolgen, die Risiken realistisch einzuschätzen und die Chancen zu nutzen, die sich in diesem entstehenden Ökosystem bieten.
Die Kernfusion wird die Welt nicht über Nacht verändern. Aber sie könnte sie über die kommenden Jahrzehnte fundamental transformieren – und die Weichen dafür werden jetzt gestellt.
Dieser Artikel wurde im Januar 2026 verfasst und reflektiert den Kenntnisstand zu diesem Zeitpunkt. Die Fusionsindustrie entwickelt sich dynamisch, und Leser sollten aktuelle Entwicklungen eigenständig verfolgen.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Weitere Artikel
Gute Zahlen bei ASML bestätigen anhaltenden KI-Boom
ASML, der niederländische Hersteller von Lithografiemaschinen, hat starke Zahlen vorgelegt, die zeigen, dass der Boom bei KI und dem
Von Cerebras bis Stargate: Wie KI-Infrastruktur die Tech-Welt revolutioniert – und welche Probleme jetzt akut werden
️ Über diese Episode In dieser vollgepackten Folge diskutieren Christian und Yusuf die wichtigsten KI- und Tech-Entwicklungen der
Kernfusion Deep Dive 2025: Technologie Ansätze, Engineering-Herausforderungen & kommerzielle Realisierbarkeit im Detail
️ Über diese Episode In dieser Spezialfolge präsentiert Yusuf Sar nach sechs Monaten intensiver Recherche eine umfassende Analyse