Apple veröffentlicht 8 kleine KI-Sprachmodelle, um mit Microsofts Phi-3 zu konkurrieren

Apple veröffentlicht 8 kleine KI-Sprachmodelle, um mit Microsofts Phi-3 zu konkurrieren
Apple veröffentlicht 8 kleine KI-Sprachmodelle, um mit Microsofts Phi-3 zu konkurrieren
-

Angesichts der zahlenmäßigen Stärke hat Apple mit der Bereitstellung von acht kleinen KI-Modellen einen strategischen Schritt auf dem hart umkämpften Markt für künstliche Intelligenz unternommen. Die kompakten Tools, zusammen OpenELM genannt, sind für den Einsatz auf Mobil- und Offline-Geräten konzipiert und eignen sich daher perfekt für Smartphones.

Veröffentlicht in der Open-Source-KI-Community Umarmendes Gesicht, Modelle werden in Versionen mit 270 Millionen, 450 Millionen, 1,1 Milliarden und 3 Milliarden Parametern angeboten. Benutzer können OpenELM von Apple auch in vorab trainierten oder auf Anweisungen abgestimmten Versionen herunterladen.

Vorab trainierte Modelle bieten eine Grundlage, auf der Benutzer Feinabstimmungen vornehmen und darauf aufbauen können. Auf Anweisungen abgestimmte Modelle sind bereits so programmiert, dass sie auf Anweisungen reagieren, wodurch sie sich besser für Gespräche und Interaktionen mit Endbenutzern eignen.

Obwohl Apple keine konkreten Anwendungsfälle für diese Modelle vorgeschlagen hat, könnten sie auf laufende Assistenten angewendet werden, die E-Mails und Textnachrichten analysieren oder auf der Grundlage von Daten intelligente Vorschläge machen können. Dies ist ein ähnlicher Ansatz von Google übernommendas sein Gemini AI-Modell in seiner Pixel-Smartphone-Reihe einsetzte.

Die Modelle wurden anhand öffentlich verfügbarer Datensätze trainiert, und Apple teilt sowohl den CoreNet-Code (die Bibliothek, die zum Trainieren von OpenELM verwendet wird) als auch die „Rezepte“ für seine Modelle. Mit anderen Worten: Benutzer können sehen, wie Apple sie gebaut hat.

Der Start von Apple erfolgt kurz darauf Microsoft wird Phi-3 ankündigen, eine Familie kleiner Sprachmodelle, die lokal ausgeführt werden können. Phi-3 Mini, ein 3,8-Milliarden-Parameter-Modell, das auf 3,3 Billionen Token trainiert wurde, ist immer noch in der Lage, 128.000 Kontext-Tokens zu verarbeiten, was es mit GPT-4 vergleichbar macht und Llama-3 und Mistral Large in Bezug auf die Token-Kapazität übertrifft.

Da Phi-3 Mini quelloffen und leichtgewichtig ist, könnte es für einige Aufgaben potenziell traditionelle Assistenten wie Apples Siri oder Googles Gemini ersetzen, und Microsoft hat Phi-3 bereits auf einem iPhone getestet und von zufriedenstellenden Ergebnissen und schnellen Token-Generierungen berichtet.

Während Apple diese neuen KI-Sprachmodellierungsfunktionen noch nicht in seine Verbrauchergeräte integriert hat, wird gemunkelt, dass das bevorstehende iOS 18-Update dazu führen wird beinhaltet Neue KI-Funktionen, die die Verarbeitung auf dem Gerät nutzen, um die Privatsphäre der Benutzer zu gewährleisten.

Apple-Hardware hat bei der Verwendung lokaler KI einen Vorteil, da sie den RAM des Geräts mit dem Video-RAM (oder VRAM) der GPU kombiniert. Das bedeutet, dass ein Mac mit 32 GB RAM (eine übliche Konfiguration auf einem PC) diesen RAM wie den VRAM der GPU verwenden kann, um KI-Modelle auszuführen. Im Vergleich Geräte Windows sie sind begrenzt durch den Geräte-RAM und den GPU-VRAM getrennt. Benutzer müssen häufig eine leistungsstarke 32-GB-GPU kaufen, um den Arbeitsspeicher zu erhöhen und KI-Modelle auszuführen.

Allerdings fällt Apple im Bereich der KI-Entwicklung hinter Windows/Linux zurück. Die meisten KI-Anwendungen drehen sich um von Nvidia entwickelte und gebaute Hardware, die Apple zur Unterstützung seiner eigenen Chips auslaufen ließ. Das bedeutet, dass es bei Apple relativ wenig native KI-Entwicklung gibt und die Verwendung von KI in Apple-Produkten daher mehrere Übersetzungsschichten oder andere komplexe Verfahren erfordert.

-

NEXT 5 Stardew Valley-ähnliche Spiele für Android-Handys