Die Google I/O 2024 hat erneut gezeigt, dass Google stark auf künstliche Intelligenz setzt. Neben zahlreichen Software-Ankündigungen standen auch Hardware-Innovationen und Infrastruktur-Verbesserungen im Fokus, die das Potenzial haben, die KI-Landschaft maßgeblich zu verändern.

Trillium: Die sechste Generation der TPU

Eine der bedeutendsten Ankündigungen war die Vorstellung von Trillium, der sechsten Generation von Googles Tensor Processing Units (TPUs). Diese speziell für KI-Workloads entwickelten Chips sollen eine beeindruckende Leistungssteigerung bieten. Mit einer bis zu 4,7-fach höheren Spitzenleistung und doppelter Speicherbandbreite im Vergleich zur Vorgängergeneration TPU v5e verspricht Trillium, anspruchsvolle KI-Modelle noch effizienter zu trainieren und auszuführen. Zudem soll Trillium um über 67% energieeffizienter sein, was einen wichtigen Beitrag zur Nachhaltigkeit leistet.

Google I/O 2024 Präsentation von Trillium

Axion: Googles erster ARM-basierter Chip

Ein weiterer Meilenstein ist der Axion-Prozessor, Googles erster selbst entwickelter Chip auf Basis des Neoverse-V2-Design der ARM-Architektur. Dieser Chip wurde speziell für den Einsatz in den Rechenzentren von Google Cloud entwickelt und soll dort für eine deutliche Leistungssteigerung sorgen. Laut Google bietet Axion bis zu 30% mehr Leistung als die schnellsten Allzweck-ARM-basierten Instanzen in der Cloud und ist bis zu 50% schneller und 60% energieeffizienter als vergleichbare x86-basierte Instanzen.

NVIDIA Blackwell: Ausbau der Partnerschaft für mehr KI-Power

Google Cloud baut seine Partnerschaft mit NVIDIA weiter aus, um die neue Blackwell-GPU-Architektur in ihre Cloud-Plattform zu integrieren. Blackwell verspricht eine deutliche Leistungssteigerung für KI- und High-Performance-Computing-Anwendungen und soll in den kommenden Jahren in verschiedenen Bereichen zum Einsatz kommen. Durch die Integration in Google Cloud können Kunden die Leistung von Blackwell für ihre eigenen KI-Projekte nutzen. Erste Benchmarks deuten auf eine bis zu 30-fache Leistungssteigerung beim Inferencing und bis zu 25-fache Verbesserung der Energieeffizienz für große Sprachmodelle (LLMs) im Vergleich zu herkömmlichen GPUs hin. Darüber hinaus ermöglicht die 5. Generation von NVLink eine Kommunikation von GPU zu GPU mit bis zu 1,8 TB/sec, was doppelt so schnell ist wie die bei Hopper eingesetzte 4. Generation.

KI-Hypercomputer und nachhaltige Infrastruktur

Google hat auf der I/O auch seine Fortschritte im Bereich der KI-Infrastruktur hervorgehoben. Der AI Hypercomputer, eine Supercomputing-Architektur für KI, kombiniert CPUs, GPUs und TPUs, um eine doppelt so hohe Effizienz wie herkömmliche Hardware und Chips zu erreichen. Diese beeindruckende Leistungssteigerung wird durch die Kombination verschiedener Faktoren ermöglicht:

  • Hardware: Hochleistungsfähige CPUs, GPUs und TPUs bilden das Herzstück des AI Hypercomputers.
  • Open-Source-Software: Durch die Nutzung von Open-Source-Frameworks wie SAX, TensorFlow, PyTorch und Kubernetes Engine wird die Entwicklung und Bereitstellung von KI-Anwendungen beschleunigt und vereinfacht.
  • Flexible Nutzung: Dynamische Workload-Scheduler, CUDA und On-Demand-Spot-Instanzen ermöglichen eine effiziente Nutzung der Ressourcen und eine optimale Anpassung an die jeweiligen Anforderungen.
  • Liquid Cooling: Diese innovative Kühltechnologie mit einer Kapazität von einem Gigawatt trägt zur hohen Energieeffizienz bei, indem sie die Wärmeentwicklung der leistungsstarken Hardware effektiv abführt. Allerdings ist zu beachten, dass diese Technologie einen hohen Wasserverbrauch mit sich bringt, ein Aspekt, der bei der Diskussion um Nachhaltigkeit nicht außer Acht gelassen werden sollte (Stichwort: Green IT).

Zu Infrastruktur gehört auch das Glasfasernetz von Google Cloud, welches mit einer Länge von 2 Millionen Meilen fast zehnmal größer ist als das des nächstgrößeren Cloud-Anbieters. Dies ermöglicht schnelle und zuverlässige Verbindungen für KI-Anwendungen und andere Cloud-Dienste.

Ausblick

Die auf der Google I/O 2024 vorgestellten Hardware-Innovationen und Infrastruktur-Verbesserungen zeigen, dass Google weiterhin stark in die Entwicklung von KI-spezifischer Hardware und Infrastruktur investiert. Mit Trillium, Axion, der erweiterten Partnerschaft mit NVIDIA für Blackwell und dem leistungsstarken AI Hypercomputer positioniert sich Google als führender Anbieter von KI-Infrastruktur und ermöglicht es Unternehmen und Entwicklern, die Vorteile der künstlichen Intelligenz in vollem Umfang zu nutzen. Es bleibt spannend zu beobachten, welche weiteren Entwicklungen in diesem Bereich in Zukunft folgen werden.

Erfahren Sie mehr

Ihr Wartungsspezialist für DataCenter Hardware

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Erfahren Sie mehr

Was denkt Hardwarewartung 24?

Obwohl OpenAI mit ihrer „Frontrunning“-Veranstaltung am Montag Google einiges an Medienaufmerksamkeit gestohlen hat, ist für Hardcore-KI-Experten die Stellung von Google immer noch ungebrochen. Betrachtet man die multimodalen LLM-Fähigkeiten und die Entwicklung von Agents, steht Google seinem Konkurrenten OpenAI in nichts nach. Beide haben einen persönlichen Assistenten vorgestellt, der in Echtzeit (mit weniger als 250 ms Verzögerung) mit dem Menschen über Text, Audio oder Kamera kommunizieren kann und seine Umwelt zu verstehen scheint.

Allerdings ist die Skepsis der Anwender immer noch sehr hoch, dass es sich nur um „Showcases“ handelt, die noch keiner im echten Leben testen konnte. Erst mit dem Launch der OpenAI-App mit ChatGPT-4 omni oder Googles Astra wird sich zeigen, welcher Assistent halten kann, was er verspricht.

Thema: Hardware

Die Entwicklungen im Hardware-Bereich sind deutlich spürbar und zeigen das Wettrüsten um die Zukunft der Wertschöpfung durch Künstliche Intelligenz. Besonders hervorzuheben sind die Leistungsdaten der 6. TPU-Generation. Obwohl Google seine Partnerschaft mit NVIDIA ausbaut und ab 2025 die Blackwell-Chips seinen Kunden anbieten will, signalisiert die neue TPU-Generation, dass Google künftig nicht mehr bereit ist, die überhöhten Preise von NVIDIA aufgrund der Knappheit zu zahlen. Stattdessen entwickeln sie eigene, leistungsstärkere Chips. Damit reiht sich Google in die Reihe der Hyperscaler ein, um NVIDIA zumindest teilweise in die Schranken zu weisen.

Auch der Einsatz des neuen ARM-basierten Axion-Chips kommt wenig überraschend. Nachdem sowohl Amazon als auch Microsoft ARM-basierte Chips aufgrund ihrer besseren Energieeffizienz in ihr Portfolio aufgenommen haben, folgt nun auch Google diesem Trend.

Thema: IT-Infrastruktur

Das Wettrüsten um den Ausbau der KI-Infrastruktur erfordert neben massiven Ausgaben für Rechenleistung und Speicher auch den Ausbau der Netzwerk-Infrastruktur. Mit über 2 Millionen Meilen Glasfaserkabel hat Google auch hier einen Wettbewerbsvorteil, der ihnen besonders bei der Nutzung von multimodalen Modellen zugutekommen wird.

Betrachtet man die gesamte Infrastruktur, die Google aufgebaut hat und weiter ausbauen will, stellt sich die Frage, wie Google dieses sehr ressourcenintensive Vorhaben nachhaltig gestalten will. In der Präsentation war die Rede von Liquid Cooling, das zwar sehr energieeffizient ist, aber das Thema Wasserverbrauch vernachlässigt. Um ein Gigawatt Leistung mit Wasser zu kühlen, werden ganze Flüsse benötigt, die dann mit Wasserkompensationsprojekten oder „Water Stewardship“ ausgeglichen werden sollen. Allerdings haben diese Kompensationsprojekte einen ähnlichen Beigeschmack wie CO2-Kompensationsprojekte.

Fazit

Google hat bei der I/O-Präsentation gezeigt, dass sie technologisch dem Wettbewerb in nichts nachstehen. Was sie allerdings indirekt zugegeben haben, ist, dass sie bei der Integration der Technologie in ihre Produkte einen starken Nachholbedarf hatten und diesen nun aufholen. Sie wollen offensichtlich nicht nur durch die Google Cloud am KI-Hype profitieren, sondern KI in all ihre Produkte integrieren, um so eine breite Palette der Wertschöpfung durch KI zu nutzen. Problematisch an dieser Entwicklung finden wir, dass der Ressourcenverbrauch durch KI nicht thematisiert wird. Google als einer der Vorreiter der Green-IT hätte hier eine gute Positionierung gehabt, hat aber offensichtlich bewusst darauf verzichtet, das Thema anzusprechen.

Auch wenn die Nachhaltigkeit und Green-IT durch die rasante Entwicklung von KI aktuell auf der Strecke bleibt, glauben wir, dass KI jedes Problem auch lösen kann, das sie selbst erschaffen hat.

Erfahren Sie mehr

Ihr Wartungsspezialist für alle großen Hardware Hersteller

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Erfahren Sie mehr