Apple, Microsoft, Meta und Google haben alle kürzlich neue KI-Modelle mit weniger „Parametern“, aber dennoch leistungsstarken Funktionen veröffentlicht. Mit diesem Schritt möchten Technologiekonzerne finanziell eingeschränkte Unternehmen dazu ermutigen, dennoch KI zu nutzen.
Abbildung: FT
Generell gilt: Je höher die Anzahl der Parameter, desto leistungsfähiger ist die KI-Software und desto komplexer und differenzierter sind ihre Aufgaben. Das neueste GPT-4o-Modell von OpenAI und Gemini 1.5 Pro von Google, die beide diese Woche angekündigt wurden, verfügen schätzungsweise über mehr als eine Billion Parameter. In der Zwischenzeit trainiert Meta eine Version seines Open-Source-Llama-Modells mit 400 Milliarden Parametern.
Bedenken hinsichtlich der Daten- und Urheberrechtshaftung haben außerdem dazu geführt, dass große Technologieunternehmen wie Meta und Google kleine Sprachmodelle mit nur wenigen Milliarden Parametern veröffentlichen, die günstiger, energieeffizienter und anpassbar sind, weniger Energie für Training und Ausführung benötigen und zudem die Speicherung sensibler Daten verhindern können.
„Indem man diese hohe Qualität zu geringeren Kosten erhält, stehen den Kunden tatsächlich mehr Anwendungen zur Verfügung“, sagte Eric Boyd, Corporate Vice President der Azure AI Platform von Microsoft, die KI-Modelle an Unternehmen verkauft.
Auch Google, Meta, Microsoft und das französische Startup Mistral haben kleine Sprachmodelle veröffentlicht, weisen aber dennoch Fortschritte auf und können sich besser auf bestimmte Aufgaben konzentrieren.
Nick Clegg, Metas Präsident für globale Angelegenheiten, sagte, das neue 8-Milliarden-Parameter-Modell von Llama 3 sei mit GPT-4 vergleichbar. Microsoft sagt, dass sein kleines Phi-3-Modell mit 7 Milliarden Parametern GPT-3.5, die vorherige Version des OpenAI-Modells, übertrifft.
Mikrochips können Aufgaben auch lokal auf dem Gerät verarbeiten, anstatt Informationen an die Cloud zu senden. Dies könnte für datenschutzbewusste Kunden interessant sein, die sicherstellen möchten, dass die Informationen im Netzwerk bleiben.
Charlotte Marshall, Managerin bei der Anwaltskanzlei Addleshaw Goddard, sagte, dass „eine der Herausforderungen, mit denen viele unserer Kunden bei der Einführung generativer KI-Produkte konfrontiert waren“, die Einhaltung der gesetzlichen Anforderungen hinsichtlich der Datenverarbeitung und -übertragung sei. Die kleineren Modelle böten den Unternehmen die Möglichkeit, regulatorische Bedenken und Kostenprobleme zu überwinden, sagte sie.
Kleinere Modelle ermöglichen auch die Ausführung von KI-Funktionen auf Geräten wie Mobiltelefonen. Das Modell „Gemini Nano“ von Google ist in den neuesten Pixel-Telefonen und dem neuesten S24-Smartphone von Samsung integriert.
Apple hat außerdem bekannt gegeben, dass das Unternehmen auch KI-Modelle entwickelt, die auf seinem Bestseller iPhone laufen sollen. Letzten Monat veröffentlichte der Riese aus dem Silicon Valley OpenELM, ein kleines Framework zur Ausführung textbasierter Aufgaben.
Boyd von Microsoft sagte, die kleineren Modelle würden zu „interessanten Anwendungen bis hin zu Telefonen und Laptops“ führen.
OpenAI-Direktor Sam Altman sagte im November, dass das Unternehmen auch KI-Modelle unterschiedlicher Größe an Kunden lizenziert und diese „unterschiedlichen Zwecken dienen“. „Es gibt einige Dinge, die die kleineren Modelle wirklich gut machen. Darüber bin ich gespannt“, sagte er.
Altman fügte jedoch hinzu, dass sich OpenAI weiterhin auf die Entwicklung größerer KI-Modelle mit Skalierbarkeit konzentrieren werde, einschließlich der Fähigkeit, Aufgaben zu begründen, zu planen und auszuführen und letztendlich eine Intelligenz auf menschlichem Niveau zu erreichen.
Hoang Hai (laut FT)
[Anzeige_2]
Quelle: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Kommentar (0)