Geld zurück GarantieErfahrungen & Bewertungen zu Hardwarewartung.com eine Marke von Change-IT
  • AI Edge Gallery: neue Google App ermöglicht das lokale Ausführen von LLMs auf dem Smartphone

AI Edge Gallery: Neue Google App ermöglicht das lokale Ausführen von LLMs auf dem Smartphone

Von |2025-06-03T10:07:35+00:001.6.2025|

Google bietet mit der bisher kaum bekannten AI Edge Gallery App die Möglichkeit, LLMs auf einem Smartphone zu betreiben.

Die Google AI Edge Gallery ist eine neue, experimentelle App von Google, mit der man Large Language Models (LLMS) auf einem Smartphone installieren und offline verwenden kann. Das Besondere an der AI Edge Gallery ist, dass die Generative KI vollständig auf dem Gerät läuft. Das bedeutet, dass die gesamte Verarbeitung lokal stattfindet und keine Internetverbindung benötigt wird, sobald das Modell geladen ist. Das eröffnet kreative und praktische KI-Anwendungsmöglichkeiten. Benötigt wird allerdings ein modernes Smartphone wie zum Beispiel das Google Pixel 8 oder 9.

Die App ist derzeit für Android-Geräte verfügbar. Eine iOS-Version ist in Planung. Es handelt sich um eine experimentelle Alpha-Version, bei der Feedback ausdrücklich erwünscht ist.

Google AI Edge Gallery: Übersicht
Erfahren Sie mehr

Ihr Wartungsspezialist im DataCenter

Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Funktionen und Anwendungsmöglichkeiten der Google AI Edge Gallery

Die App bündelt verschiedene Funktionen, um die Möglichkeiten von On-Device GenAI zu demonstrieren und zu testen. Zu den Kernfunktionen gehören:

Run locally, fully offline: Alle KI-Prozesse laufen direkt auf Ihrem Gerät ohne Internetverbindung.

Choose your model: Man kann einfach zwischen verschiedenen Modellen wechseln, die man zum Beispiel von Hugging Face herunterladen kann, und deren Performance vergleichen. Die App ermöglicht es, eine Vielzahl von LiteRT-optimierten Modellen (Lite Runtime) von der Hugging Face LiteRT-Community und offiziellen Google-Releases wie Gemma 3N herunterzuladen und zu testen.

Ask Image: Über die App lassen sich Bilder hochladen und Fragen dazu stellen. Mit dieser Funktion können beispielsweise Beschreibungen abgerufen, Probleme identifiziert oder Objekte im Bild erkannt werden.

Prompt Lab: Dieser Bereich dient zur Erkundung von LLM-Anwendungsfällen mit einer einzigen Antwort. Man kann Texte zusammenfassen, umschreiben, Code generieren lassen oder freie Prompts verwenden.

AI Chat: Ermöglicht Unterhaltungen über mehrere Runden hinweg, was komplexere Interaktionen mit dem KI-Modell zulässt.

Performance Insights: Die App liefert Echtzeit-Leistungsmetriken wie die Time To First Token und die Dekodierungsgeschwindigkeit für verschiedene Modelle, die auf dem Gerät ausgeführt werden.

Bring Your Own Model: Entwickler können ihre eigenen lokalen LiteRT-Modelle in die App laden und testen.

Developer Resources: Enthalten Links zu Modellkarten und Quellcode.

Zusammenhang mit der LLM Inference API

Die Google AI Edge Gallery App dient als Beispielanwendung für die LLM Inference API. Die LLM Inference API ist eine Technologie von Google AI Edge und MediaPipe, die es ermöglicht, LLMs vollständig auf dem Gerät in Android-Anwendungen auszuführen.

Die Google AI Edge Gallery App dient als interaktiver Experimentierraum, der die LLM Inference APIs in Aktion zeigt. Sie demonstriert ein umfassendes Spektrum an On-Device-Funktionen für generative KI. Die App zeigt das Potenzial der On-Device Generative AI und zeigt, wie die LLM Inference API in realen Android-Anwendungen implementiert werden kann.

Die zugrundeliegenden Technologien umfassen Google AI Edge (Core APIs und Tools für On-Device ML), LiteRT (eine Lightweight Runtime für optimierte Modellausführung) und die LLM Inference API (die On-Device Large Language Models antreibt), sowie die Integration mit Hugging Face für den Download von Modellen.

Wie kann man die Google AI Edge Gallery App verwenden?

Um die Google AI Edge Gallery App auszuprobieren, können Sie die neueste APK-Datei herunterladen. Detaillierte Installationsanweisungen und ein vollständiges Benutzerhandbuch finden Sie im Project Wiki. Der Quellcode der Open-Source-Anwendung ist auch im Google AI Edge Gallery GitHub-Repository verfügbar.

Was denkt Hardwarewartung 24?

Die Google AI Edge Gallery erinnert uns stark an das bekannte Open-Source-Projekt Ollama für Desktopgeräte, das bereits Millionen von Entwicklern ermöglicht, LLMs einfach und unkompliziert direkt lokal laufen zu lassen. Die Übertragung dieses Konzepts von stationären Geräten auf mobile Smartphones erscheint uns aus strategischer Sicht nachvollziehbar und ist unserer Meinung nach ein logischer nächster Schritt.

Wir gehen fest davon aus, dass zukünftig immer kleinere, leistungsfähigere und energieeffizientere KI-Modelle zunehmend direkt lokal auf Smartphones betrieben werden. Dies ermöglicht ganz neue Interaktionsmöglichkeiten sowie App-Szenarien und wird für Nutzerinnen und Nutzer zunehmend relevant sein, vor allem was Datenschutz und Offline-Verfügbarkeit angeht.

Aus Googles Perspektive ist es unserer Ansicht nach überaus clever, sich bereits jetzt ähnlich wie damals bei Android frühzeitig als grundlegende Technologiebasis für eine neue App-Generation zu positionieren. Obwohl wir nicht unbedingt begrüßen, dass Google diesen Schritt macht, verstehen wir sehr gut ihre strategische Motivation dahinter und empfinden diesen Zug als äußerst schlau und langfristig vorausschauend.

Erfahren Sie mehr

Ihr Wartungsspezialist für alle großen Hardware Hersteller

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Weitere Artikel

Über den Autor:

Christian Kunz ist ein bekannter Experte für SEO, Suchmaschinen und die Optimierung für LLMs. Er war außerdem Koordinator für die IT eines Unternehmensbereichs in einem deutschen Internet-Konzern sowie IT-Projektmanager. LinkedIn-Profil von Christian: Christian Kunz
Nach oben