Surnommé Gemini, le modèle d'IA très attendu est capable de raisonner et de comprendre des informations complexes avec plus de nuances que la technologie précédente de Google, selon Google. « Cette nouvelle ère de paradigme représente l’un des plus grands efforts scientifiques et d’ingénierie que nous ayons entrepris en tant qu’entreprise », a déclaré Sundar Pichai, PDG d’Alphabet, dans un article de blog.
Gemini comprend trois versions Gemini Ultra, Pro et Nano
Depuis qu'OpenAI a lancé ChatGPT il y a environ un an, Google s'est lancé dans une course pour produire des logiciels d'IA qui rivalisent avec ce que la société soutenue par Microsoft a introduit. Google a ajouté une nouvelle partie du modèle Gemini à son chatbot IA Bard (plus précisément Gemini Nano) et a déclaré qu'il prévoyait de publier la version la plus avancée de Gemini, Gemini Ultra, via Bard au début de l'année prochaine. En outre, la société a également lancé une autre version de Gemini appelée Gemini Pro.
Google affirme que chaque version de Gemini est conçue pour utiliser une quantité différente de puissance de traitement. Selon Google, la version la plus puissante est conçue pour fonctionner dans les centres de données, et la version la plus petite fonctionnera efficacement sur les appareils mobiles.
Le vice-président de DeepMind, Eli Collins, a déclaré que Gemini est le plus grand modèle d'IA créé par son unité et qu'il est « considérablement » moins cher à proposer aux utilisateurs que les précédents modèles d'apprentissage automatique plus grands de l'entreprise. En conséquence, il est non seulement plus performant, mais aussi beaucoup plus efficace. Le dernier modèle nécessite encore une quantité importante de puissance de calcul pour être formé, a-t-il ajouté, mais Google améliore son processus.
De plus, Alphabet a également annoncé une nouvelle génération de puces d'IA TPU personnalisées appelées Cloud TPU v5p, conçues pour former de grands modèles d'IA et regroupées en groupes de 8 960 puces. La nouvelle version du processeur client peut former de grands modèles linguistiques près de trois fois plus rapidement que les générations précédentes.
La société a déclaré que la nouvelle puce serait disponible pour les développeurs sous forme d'« aperçu » à partir du 6 décembre.
Lien source
Comment (0)