Lokale Ki-sprachmodelle auf dem iphone
Apple scheint Fortschritte zu machen, neue Ki-funktionen wie Chatbots effizient auf iphones und anderen Geräten mit begrenztem Speicher und begrenzter Rechenleistung laufen zu lassen.
Forscher bei Apple haben zwei neue wissenschaftliche Papiere verfasst, in denen Methoden beschrieben werden, die es ermöglichen, große Sprachmodelle (LLMS) wie CHATGPT und die Erstellung animierter 3D-avatare auf iphones und ähnlichem zu betreiben. Dies könnte den Weg für Apple ebnen, seinen eigenen „Apple GPT“zu bauen.
Eine Arbeit mit dem Titel „LLM in a flash“konzentriert sich auf die Optimierung der Interaktion von LLMS mit dem Gerätespeicher und dem Flash-speicher, um die Limitierungen kleiner Geräte zu umgehen.
Dieser Durchbruch könnte entscheidend sein, um hochentwickelte LLMS auf iphones und andere Geräte mit begrenztem Arbeitsspeicher zu bringen. Er könnte auch dazu beitragen, den Zugang und die Anwendungen für Ki-chatbots wie den gerüchteweise angekündigten Apple GPT zu erweitern.
In einem anderen Beitrag wird eine Technik zur automatischen Erzeugung animierter 3D-avatare aus kurzen 2D-videoclips beschrieben. Im Gegensatz zu den vorherrschenden Methoden, die mehrere Kameras erfordern, funktioniert der Ansatz von Apple mit einem typischen Smartphone-video. Ihr Algorithmus kann in nur 30 Minuten ein vollständig animierbares 3D-modell mit entkoppelter Hintergrundszene und menschlicher Darstellung erstellen. Das ist etwa 100 Mal schneller als bestehende Alternativen.
Diese Einfachheit könnte es iphone-besitzern ermöglichen, virtuelle Anproben, 3D-selfies für Vision Pro und andere Anwendungen zu erstellen. Konkrete Pläne und Zeitpläne für den Einsatz der Fortschritte in den beiden Papieren sind jedoch noch nicht bekannt.