Apple, Microsoft, Meta и Google недавно выпустили новые модели ИИ с меньшим количеством «параметров», но все еще обладающие мощными возможностями. Этот шаг является попыткой технологических групп побудить предприятия, испытывающие финансовые трудности, продолжать использовать ИИ.
Иллюстрация: FT
В целом, чем больше число параметров, тем выше производительность программного обеспечения ИИ и тем сложнее и детальнее его задачи. По оценкам, последняя модель GPT-4o от OpenAI и Gemini 1.5 Pro от Google, обе анонсированные на этой неделе, имеют более 1 триллиона параметров. Тем временем Meta обучает версию своей модели Llama с открытым исходным кодом, содержащую 400 миллиардов параметров.
Опасения по поводу ответственности за данные и авторские права также побудили крупные технологические компании, такие как Meta и Google, выпустить небольшие языковые модели, содержащие всего несколько миллиардов параметров, которые дешевле, энергоэффективнее, настраиваемее, требуют меньше энергии для обучения и работы, а также могут предотвратить хранение конфиденциальных данных.
«Получая высокое качество по более низкой цене, вы фактически получаете больше приложений для клиентов», — сказал Эрик Бойд, корпоративный вице-президент платформы искусственного интеллекта Azure компании Microsoft, которая продает модели искусственного интеллекта компаниям.
Google, Meta, Microsoft и французский стартап Mistral также выпустили небольшие языковые модели, но все равно демонстрируют прогресс и могут лучше сосредоточиться на конкретных задачах.
Ник Клегг, президент Meta по глобальным вопросам, сказал, что новая модель Llama 3 с 8 миллиардами параметров сопоставима с GPT-4. Microsoft утверждает, что ее небольшая модель Phi-3 с 7 миллиардами параметров превосходит GPT-3.5, предыдущую версию модели OpenAI.
Микрочипы также могут обрабатывать задачи локально на устройстве, а не отправлять информацию в облако, что может привлечь клиентов, заботящихся о конфиденциальности и желающих, чтобы информация оставалась в пределах сети.
Шарлотта Маршалл, менеджер юридической фирмы Addleshaw Goddard, отметила, что «одной из проблем, с которой, по моему мнению, столкнулись многие наши клиенты» при внедрении продуктов генеративного ИИ, является соблюдение юридических требований в отношении обработки и передачи данных. По ее словам, более мелкие модели предоставляют «бизнесу возможности преодолеть» проблемы, связанные с регулированием и затратами.
Меньшие модели также позволяют запускать функции ИИ на таких устройствах, как мобильные телефоны. Модель «Gemini Nano» от Google встроена в новейшие телефоны Pixel и новейший смартфон Samsung S24.
Apple также сообщила, что разрабатывает модели искусственного интеллекта для своего самого продаваемого iPhone. В прошлом месяце гигант из Кремниевой долины выпустил OpenELM — небольшую платформу, предназначенную для выполнения текстовых задач.
Бойд из Microsoft заявил, что модели меньшего размера приведут к появлению «интересных приложений, вплоть до телефонов и ноутбуков».
Директор OpenAI Сэм Альтман заявил в ноябре, что компания также лицензирует модели ИИ разных размеров для клиентов и «служит различным целям». «Есть некоторые вещи, которые модели меньшего размера будут делать действительно хорошо. Я воодушевлен этим», — сказал он.
Однако Альтман добавил, что OpenAI по-прежнему будет сосредоточена на создании более крупных моделей ИИ с возможностью масштабирования, включая способность рассуждать, планировать и выполнять задачи и в конечном итоге достигать уровня интеллекта человеческого уровня.
Хоанг Хай (по данным FT)
Источник: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Комментарий (0)