El monstruoso debut de Cerebras Systems el jueves no solo la colocó entre las mayores OPI de la historia de la tecnología: fue una señal muy clara de una demanda imparable de chips para impulsar la IA, mientras los gigantes tecnológicos luchan por encontrar alternativas a las costosas y agotadas unidades de procesamiento de gráficos fabricadas por Nvidia.
Cerebras cerró su primer día de operaciones en Wall Street con una capitalización de mercado justo por debajo de los 100.000 millones de dólares, lo que la sitúa cerca de las pocas empresas que cerraron por encima de esa marca, como Meta, la matriz de Facebook, y Alibaba. La acción cotizó a la baja el viernes, su primer día completo de negociación.
Esto es lo que necesita saber sobre este destacado competidor de Nvidia.
Cerebras fabrica un tipo de chip diferente al de la GPU Nvidia clásica, y es del tamaño de un plato.
“Construimos los chips más grandes en la industria de los semiconductores”, dijo el jueves el director ejecutivo y cofundador de Cerebras, Andrew Feldman, a CNBC en Squawk Box. “Los chips grandes procesan más información en menos tiempo y ofrecen resultados más rápidamente”.
Hasta ahora, Nvidia ha estado ganando la carrera de chips de IA porque sus GPU sirven como caballos de batalla de uso general, sobresaliendo en las matemáticas paralelas necesarias para entrenar modelos grandes. Pero ahora hemos llegado a la era de la IA agente, donde la inferencia es clave. Mientras que el entrenamiento enseña al modelo de IA a aprender de patrones en grandes cantidades de datos, la inferencia utiliza la IA para tomar decisiones basadas en nueva información.
La inferencia puede ocurrir en chips menos potentes programados para tareas más específicas, como el WSE-3 de Cerebras. Pertenece a una categoría de chips conocidos como ASIC personalizados: circuitos integrados para aplicaciones específicas. Es un espacio cada vez más concurrido, con ASICS internos fabricados ahora por empresas como Google, Amazon, Meta y Microsoft.
Cerebras dijo que el WSE-3 es 57 veces más grande que la GPU más grande y tiene 50 veces más transistores.
Los chips de IA más avanzados se fabrican utilizando el nodo de proceso de 2 nanómetros de Taiwan Semiconductor Manufacturing, algo que actualmente solo es posible en Taiwán. El chip de Cerebras también se fabrica en TSMC, pero en su nodo menos avanzado de 5 nanómetros.
Fundada en Silicon Valley en 2016, Cerebras presentó su primera solicitud para salir a bolsa en 2024, pero retiró esa presentación cuando enfrentó un escrutinio por su gran dependencia de un solo cliente, la firma de inteligencia artificial G42, respaldada por Microsoft, en los Emiratos Árabes Unidos.
Con la exitosa salida a bolsa de la empresa el jueves, Feldman y el jefe de tecnología de hardware, Sean Lie, dos de sus cofundadores, se convirtieron en multimillonarios gracias a sus participaciones.
Gráfico de acciones de una semana de Cerebras.
Durante años, Cerebras intentó vender chips a empresas, pero ahora opera principalmente los chips dentro de sus propios centros de datos como un servicio en la nube, enfrentándolos a los proveedores de la nube Google, Microsoft, Oracle y CoreWeave.
Cerebras y OpenAI anunciaron en enero un acuerdo de nube por valor de 20.000 millones de dólares que vence en 2028, mientras que Amazon Web Services anunció en marzo que está utilizando chips Cerebras en sus centros de datos.
“Para nuestro producto de inferencia rápida, hay tanta demanda que nuestro mayor desafío es tratar de suministrarlo. Estamos agregando tanta capacidad de fabricación y centro de datos como sea posible, y todavía estamos agotados hasta 2027”, dijo el jueves a CNBC el director financiero de Cerebras, Bob Komin.
Mientras que los hiperescaladores fabrican sus propios ASIC internos, Cerebras compite más estrechamente con empresas que se especializan en fabricarlos para otros. El principal de ellos es Groq. En su compra más grande hasta la fecha, Nvidia pagó 20 mil millones de dólares por la tecnología de Groq en diciembre y luego anunció unidades de procesamiento de lenguaje Groq personalizadas en GTC en marzo.
SambaNova y D-Matrix son otros dos competidores notables de Cerebras que buscan capitalizar una demanda de chips de IA sin precedentes.
SambaNova cuenta con Hugging Face y Meta entre los clientes de sus chips SN50, mientras que Intel participó en una ronda de financiación de 350 millones de dólares para SambaNova en febrero. El director ejecutivo de Intel, Lip-Bu Tan, se ha desempeñado como presidente de SambaNova desde 2017.
La oferta pública inicial de Cerebras también allana el camino para otras empresas emergentes de ASIC personalizados que buscan salir a bolsa, como Rebellions.
El fabricante de chips de Corea del Sur recaudó 400 millones de dólares de empresas como Samsung, con una valoración de 2.340 millones de dólares, en marzo mientras se prepara para una oferta pública inicial (IPO).
Ver: Desglosando los chips de IA, desde las GPU de Nvidia hasta los ASIC de Google y Amazon


