Google a annoncé mercredi l'arrivée de Gemini 2.0, son modèle d’intelligence artificielle (IA) générative le plus avancé à ce jour, destiné à concurrencer les autres géants de la tech dans un secteur en croissance rapide.
Selon le patron de Google, Sundar Pichai, cette nouvelle version doit ouvrir "une nouvelle ère" de l'IA générative capable de faciliter directement la vie des utilisateurs au quotidien.
La nouvelle version de Gemini n'est pour l'instant accessible qu'à certains, développeurs notamment, avant une publication plus large début 2025, a indiqué Google. L'entreprise compte ensuite l'intégrer dans sa gamme de différents produits, comme son moteur de recherche, et en plusieurs langues.
"Gemini 2.0, c'est la capacité à rendre l'information bien plus utile", a souligné Sundar Pichai dans une note de blog annonçant Gemini 2.0, en relevant la capacité du nouveau modèle à comprendre un contexte, anticiper et prendre des décisions pour l'utilisateur.
Google, ainsi qu'Open AI, créateur de ChatGPT, et Meta, maison mère de Facebook, ou encore Amazon sont lancés dans une course pour développer à toute vitesse des nouveaux modèles d'IA générative, malgré leurs coûts massifs et les doutes sur leur réelle utilité pour la société à ce stade.
Ce que cherche à faire Google constitue la nouvelle tendance dans la Silicon Valley: faire des outils d'IA des nouveaux majordomes numériques, des secrétaires omniscients accessibles à toute heure et capable d'exécuter de nombreuses tâches au nom de l'utilisateur.
Ses promoteurs affirment que cette utilisation constitue la nouvelle grande étape de l'arrivée de l'IA pour le grand public, après l'arrivée fracassante de ChatGPT en 2022.
Selon Google, des millions de développeurs utilisent déjà les versions précédentes de Gemini.
L'entrainement et le fonctionnement de Gemini 2.0 se fait avec une puce développée en interne nommée Trillium. Le développement des modèles d'IA générative a été en majorité fait avec le matériel du géant américain Nvidia, spécialiste des puces graphiques, ou GPU. [AFP]