Google bringt lokale KI aufs iPhone: AI Edge Gallery mit Gemma 4
Google hat mit der AI Edge Gallery eine neue iPhone-App veröffentlicht, die große Sprachmodelle vollständig offline betreibt. Im Mittelpunkt steht die Modellfamilie Gemma 4, die direkt auf dem Gerät läuft – ohne Cloud, ohne Internetverbindung, ohne dass Daten das iPhone verlassen.
Die App erlaubt das Herunterladen verschiedener offener KI-Modelle und führt sämtliche Berechnungen lokal aus. Texte, Bilder und Sprachaufnahmen werden ausschließlich auf dem Gerät verarbeitet – ein klarer Vorteil für alle, die Wert auf Datenschutz legen oder in Umgebungen ohne stabiles Internet arbeiten. Die lokale Ausführung verbessert zudem die Reaktionsgeschwindigkeit spürbar.
Gemma 4 bringt dabei deutlich mehr mit als klassische Chatfunktionen. Die Modelle unterstützen sogenannte Agentenfunktionen und können somit Daten auswerten, strukturierte Zusammenfassungen erstellen oder – bei bestehender Verbindung – externe Schnittstellen ansprechen. Ergänzt wird das durch multimodale Fähigkeiten: Fotos lassen sich direkt analysieren und beschreiben, Audioaufnahmen werden auf dem Gerät transkribiert.
Ein besonderes Merkmal ist das modulare Werkzeug-System. Nutzer können Bausteine wie Wissensabfragen, Kartenansichten oder visuelle Auswertungen flexibel einbinden, entweder selbst erstellt oder aus der Community übernommen. Ein integrierter Testbereich erlaubt es außerdem, Parameter wie das Antwortverhalten gezielt zu konfigurieren.
Komplett neu ist die Idee von Gemma 4 übrigens nicht, bereits in der Vergangenheit gab es App’s die lokale KI-Modelle auf das iPhone gebracht hatten. Diese Programme wurden aber meistens eher von kleineren Entwicklern gepflegt, sodass es durchaus positiv zu werten ist, dass nun auch ein Großkonzern wie Google diesen Markt erkennt.