
Google prend l’avantage dans la course à l’IA grâce à ses puces maison
Aujourd'hui l'économie
Longtemps considéré comme un acteur en retrait face à la montée fulgurante d’OpenAI et à la domination écrasante de Nvidia sur les puces pour l’intelligence artificielle, Google revient aujourd’hui au premier plan. Grâce à ses propres processeurs conçus en interne, le géant de la Silicon Valley pourrait bien redéfinir l’équilibre des forces dans un secteur en pleine effervescence.
Depuis plus de trois ans, Nvidia règne sans partage sur le matériel nécessaire à l’intelligence artificielle. Ses puces équipent les centres de données du monde entier et permettent d’entraîner les modèles les plus avancés. Mais cette situation quasi monopolistique a entraîné une forte dépendance des entreprises. La demande a explosé et les prix se sont envolés. Tout le secteur s’est mis en quête d’alternatives. C’est dans ce contexte que Google refait surface. Le groupe investit désormais plus de 90 milliards de dollars par an dans ses data centers et développe depuis des années ses propres puces IA, longtemps restées discrètes, car réservées à un usage interne.
Tout a changé avec la présentation de Gemini 3, le nouveau modèle d’intelligence artificielle de Google. Ce modèle, salué comme l’un des plus performants au monde, tourne exclusivement sur les puces maison du groupe, sans recourir aux GPU Nvidia. Une rupture majeure qui démontre que le monopole de Nvidia peut être contourné.
À lire aussiGoogle mise tout sur l'intelligence artificielle pour assurer son avenir
Des puces ultra-optimisées qui séduisent Meta et d’autres géantsCes puces Google se distinguent par une spécialisation extrême. Elles sont optimisées pour les opérations qui composent près de 90% du travail d’une IA. Là où les puces Nvidia sont polyvalentes, celles de Google se concentrent sur une tâche unique, mais la réalisent de façon redoutablement efficace. Cette approche séduit désormais les plus grands acteurs du numérique. Meta, pourtant cliente de longue date de Nvidia, discute déjà avec Google d’un possible contrat pour utiliser ces puces dès 2027. Un signal fort : même les partenaires historiques de Nvidia envisagent d’autres options. Si ces négociations aboutissent, Google deviendrait non seulement un géant de la recherche et du cloud, mais aussi un vendeur de puces et un créateur de modèles IA. Une position unique dans le secteur.
Une intégration verticale qui place Google en position dominanteGoogle possède un atout que personne d’autre ne peut revendiquer à ce niveau : une intégration verticale totale. Le groupe peut créer ses propres puces, les installer dans ses data centers, entraîner ses modèles dessus, puis les distribuer instantanément auprès de centaines de millions d’utilisateurs à travers ses services (Recherche, YouTube, Android, etc.). Cette maîtrise complète de la chaîne de valeur donne à Google un avantage stratégique inégalé.
Face à cela, les principaux concurrents réagissent. OpenAI poursuit son innovation, mais reste entièrement dépendante de Nvidia pour entraîner ses modèles. Nvidia, de son côté, conserve une avance technologique, mais se voit désormais talonné par ces nouveaux entrants accélérant à grande vitesse. Pour certains spécialistes, Google réunit la puissance technologique de Nvidia et la maîtrise logicielle d’OpenAI. Une combinaison redoutable, qui explique en partie pourquoi la capitalisation boursière du groupe a dépassé les 4 000 milliards de dollars. Le géant endormi s’est bel et bien réveillé — et semble aujourd’hui prêt à redéfinir l’avenir de l’intelligence artificielle.