Google a dévoilé une nouvelle technologie de puce IA nommée TurboQuant, conçue pour accélérer les tâches d'inférence d'IA. Cette technologie se concentre sur l'amélioration de l'efficacité d'exécution des grands modèles de langage grâce à des formats numériques et des méthodes de calcul avancés.
Les analystes de l'industrie relèvent qu'une caractéristique clé de ce type de matériel dédié à l'IA est son potentiel à réduire la dépendance du système à la mémoire externe à haute bande passante (HBM). Cette mémoire est un composant critique et coûteux actuellement fourni par des entreprises comme Micron, Samsung et SK Hynix.
Si elle est largement adoptée, l'avancée interne de Google pourrait freiner la trajectoire de croissance de la demande en HBM de la part des grands fournisseurs de cloud, impactant directement les fabricants de puces mémoire. Cependant, le marché général de la mémoire pour l'IA reste dynamique, et Micron et d'autres continuent d'innover et d'augmenter leur production pour répondre aux besoins du secteur.
L'impact à long terme sur Micron est incertain et dépendra du taux d'adoption de la technologie propriétaire de Google par rapport à la dépendance continue de l'ensemble de l'industrie à des solutions de mémoire standardisées et hautes performances pour l'entraînement et l'inférence de l'IA.