Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Wie Apple synthetische KI in ältere iPhones einbaut

Báo Thanh niênBáo Thanh niên23/12/2023

[Anzeige_1]

Laut Android Authority beschreibt Apples Forschungsbericht eine Lösung für die Ausführung großer Sprachmodelle (LLMs) auf Geräten mit begrenztem RAM. Der Bericht zeigt, wie das Unternehmen „Modellparameter“ speichern und bei Bedarf einen Teil davon in den RAM des Geräts laden kann, anstatt das gesamte Modell in den RAM zu laden.

Cách Apple đưa AI tổng hợp vào iPhone đời cũ- Ảnh 1.

Apple möchte älteren iPhones mit weniger RAM helfen, allgemeine KI auszuführen

In dem Dokument wird behauptet, dass diese Methode die Ausführung von Modellen ermöglicht, die den doppelten RAM eines iPhones benötigen, und dabei immer noch eine 4- bis 5-fache bzw. 20- bis 25-fache Inferenzgeschwindigkeit im Vergleich zu einfachen Lademethoden auf der CPU bzw. GPU gewährleistet.

Der Einsatz synthetischer KI auf einem Gerät mit mehr RAM wäre ein großer Vorteil, da er schnellere Lese-/Schreibgeschwindigkeiten ermöglichen würde. Geschwindigkeit ist für On-Device-KI wichtig, da sie deutlich schnellere Inferenzzeiten ermöglicht, da Nutzer nicht unbedingt Dutzende von Sekunden (oder länger) auf eine Antwort oder ein Endergebnis warten müssen. All dies bedeutet, dass ein On-Device-KI-Assistent potenziell mit Gesprächsgeschwindigkeit laufen, Bilder/Texte deutlich schneller generieren, Artikel schneller zusammenfassen usw. könnte. Apples Lösung bedeutet jedoch, dass Nutzer nicht unbedingt viel RAM benötigen, um die Reaktionsfähigkeit der On-Device-KI auf Aufgaben zu beschleunigen.

Apples Ansatz könnte es alten und neuen iPhones ermöglichen, synthetische KI-Funktionen direkt auf dem Gerät anzubieten. Das ist wichtig, da Apples iPhones in der Regel weniger RAM bieten als High-End-Android-Telefone. Die iPhone 11-Serie bietet beispielsweise nur 4 GB RAM, während selbst das Einstiegsmodell iPhone 15 nur 6 GB hat.

Apple ist nicht der einzige Mobilfunkanbieter, der an der Verkleinerung von LLM arbeitet. Die neuesten Flaggschiff-Chips von Qualcomm und MediaTek unterstützen beide INT4-Präzision, um diese Modelle zu verkleinern. So oder so versuchen die Unternehmen, neue Wege zu finden, um die Systemanforderungen für On-Device-KI zu senken, damit auch Low-End-Telefone diese Funktion anbieten können.


[Anzeige_2]
Quellenlink

Kommentar (0)

Simple Empty
No data

Gleiches Thema

Gleiche Kategorie

Zusammenfassung der A80-Ausbildung: Die Armee marschiert in den Armen des Volkes
Die kreative und einzigartige Art der Generation Z, Patriotismus zu zeigen
Im Ausstellungsraum zum 80. Jahrestag des Nationalfeiertags am 2. September
Überblick über die erste A80-Trainingseinheit am Ba Dinh Square

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt