Neue lokale LLMs von Apple vorgestellt

Apple-Forscher haben wieder eine neue Sprachmodellfamilie vorgestellt. OpenELM wurde bei HuggingFace platziert und hat ein paar interessante Eigenschaften.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
iPhone mit Verpackung

iPhone mit Verpackung: Passt da ein Chatbot drauf?

(Bild: BadPixma / Shutterstock)

Lesezeit: 2 Min.

Apple ist in den vergangenen Monaten besonders aktiv in Sachen KI-Forschung. So soll Siri mehr Kontext verstehen, ein neues multimodales Modell besonders effizient sein oder das KI-System Ferret-UI die App-Bedienung vereinfachen. Nun hat der iPhone-Hersteller erneut nachgelegt: Auf der Plattform HuggingFace wurde mit OpenELM eine neue Modellfamilie bereitgestellt. OpenELM steht für "Open-source Efficient Language Models" und die großen Sprachmodelle (Large Language Models, LLMs) sind explizit dafür vorgesehen, lokal zu laufen ("on-device"), also möglicherweise sogar auf einem iPhone. Dass Apple dies auch im Rahmen seiner für iOS 18 vorgesehen KI-Initiative plant, gilt Beobachtern bereits als ausgemacht.

Insgesamt existieren acht OpenELM-Modelle, die Hälfte davon wurde einem Tuning unterzogen, der Rest mittels CoreNet trainiert, Apples eigene Bibliothek zum Training tiefer neuronaler Netze. Laut Apples OpenELM-Paper kam eine Layer-Wise-Scaling-Strategie zum Einsatz, die besonders auf Genauigkeit und Effizienz getrimmt wurde.

Der Konzern stellt auf HuggingFace im Rahmen von dessen Hub nicht nur die fertig trainierten Modelle, sondern Traininglogs und den Quellcode bereit. Angaben des Apple-Forscherteams zufolge benötigt OpenELM zwei Mal weniger Pre-Training-Tokens, erreicht damit aber eine um immerhin 2,36 Prozent höhere Genauigkeit als OLMo bei einer Milliarde Parameter.

Ob OpenELM auch Teil von iOS 18 wird, ist unklar – es könnte sich auch nur um eines von vielen Forschungsprojekten des Unternehmens handeln. Nach wie vor ist unklar, ob Apple gänzlich auf eigene Technik setzt, um generative Funktionen in seine Systeme zu holen, oder sich Hilfe etwa bei Google besorgt.

Apple wird aber viel Geld in die Hand nehmen, um seine KI-System eigenhändig zu trainieren. Der Kauf entsprechender Server ist bereits beschlossen oder umgesetzt, allerdings soll es auch eigene SoCs geben, die speziell für die Anwendung nur für Apple gefertigt werden. Das wird derzeit im chinesischen Kurznachrichtendienst Weibo durch einen Leaker kolportiert. Den Angaben zufolge wird Apple zu einem 3-nm-Prozess von TSMC greifen, eine Massenproduktion ist allerdings erst für die zweite Jahreshäfte 2025 geplant. Der Leaker gibt an, selbst 25 Jahre im Chipgeschäft tätig zu sein, lag in der Vergangenheit unter anderem beim iPhone 14 und dessen SoC-Aufteilung richtig.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(bsc)