Google Cloud el miércoles anunciado que sus chips de IA de octava generación, o unidades de procesamiento tensorial (TPU), especialmente diseñados, se dividirán en dos. Un chip, llamado TPU 8t, estará dedicado al entrenamiento de modelos y el otro, TPU 8i, estará destinado a la inferencia.
La inferencia es el uso continuo de un modelo, es decir, lo que sucede después de que el usuario envía un comando.
Como era de esperar, es corredores de empresa Algunas especificaciones de rendimiento impresionantes para estos nuevos TPU en comparación con la generación anterior: entrenamiento de modelos de IA hasta 3 veces más rápido, un 80 % mejor rendimiento por dólar y la capacidad de tener más de 1 millón de TPU trabajando juntos en un solo clúster. El resultado es más computación con mucha menos energía (y costo para los clientes) que las versiones anteriores. Él llama a este chip TPU, no GPU, porque su chip especial de bajo consumo originalmente se llamaba Tensor.
Pero los chips de Google no son un asalto frontal al futuro de Nvidia, al menos por ahora. Al igual que otros proveedores gigantes de la nube, incluidos Microsoft y Amazon, Google utiliza estos chips para complementar los sistemas basados en Nvidia que se ofrecen en su infraestructura. No reemplaza completamente a Nvidia. De hecho, Google promete que su nube tendrá el chip más nuevo de Nvidia, el Vera Rubin, disponible a finales de este año.
Un día, los hiperescaladores que fabrican sus propios chips de IA (incluidos Amazon, Microsoft y Google) pueden tener cada vez menos necesidad de Nvidia, a medida que las empresas trasladan sus necesidades de IA a la nube y trasladan sus aplicaciones a estos chips.
Sin embargo, actualmente apostar contra Nvidia no es rentable. Como analista líder del mercado de chips Patrick Moore publicó en broma en Xpredijo que los TPU de Google podrían ser malas noticias para Nvidia (e Intel) en 2016, cuando el gigante de las búsquedas lanzó el primero. Nvidia es ahora una empresa con una capitalización de mercado de casi 5 billones de dólares, lo que significa que es posible que esas predicciones no resistan la prueba del tiempo.
Si todo va según el plan de Nvidia, el crecimiento de Google como proveedor de inteligencia artificial en la nube generará más negocios para el fabricante de chips, incluso si muchas cargas de trabajo se ejecutan en chips de Google.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
De hecho, Google también declaró que había acordado trabajar con Nvidia para diseñar una red informática que permitiría que los sistemas basados en Nvidia funcionaran de manera más eficiente en su nube. Específicamente, los dos gigantes tecnológicos están trabajando para mejorar una tecnología de red basada en software llamada Falcon. que fue creado y de código abierto por Google en 2023 bajo el padrino de todas las organizaciones de hardware de centros de datos de código abierto, el Proyectos de Computación Abierta.
Cuando compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta nuestra independencia editorial.



