Theme editor

Noticias Goog apuesta por tpu propios para competir con nvidia en ia

GOOG acelera en chips de IA y estrecha el cerco sobre Nvidia​


d67733e0ee7e3ee28514d8ff5db1da13.webp


$GOOG (Alphabet Inc.) ha dado un paso firme en la guerra de la inteligencia artificial con el lanzamiento de su octava generación de unidades de procesamiento tensorial (TPU). La compañía presentó dos nuevos chips diseñados para cubrir necesidades específicas del mercado de IA, marcando una estrategia clara para reducir su dependencia de proveedores externos como Nvidia.

Los nuevos TPU de GOOG: doble arquitectura para IA​


$GOOG (Alphabet) ha desdoblado su gama en dos modelos especializados:

  • TPU 8t: orientado al entrenamiento de modelos de frontera. Permite configuraciones de pod que alcanzan los 9.600 chips y un rendimiento agregado de 121 ExaFlops.
  • TPU 8i: diseñado para inferencia de baja latencia, ideal para asistentes y agentes autónomos que requieren respuestas en tiempo real.

Según $GOOG (Alphabet), estos chips ofrecen hasta 3 veces más rendimiento en entrenamiento, una mejora del 2,8x en la relación precio-rendimiento y hasta un 80% más de eficiencia por dólar frente a la generación anterior.

La decisión de separar las arquitecturas responde al cambio de patrón de uso que imponen los modelos agénticos. Estos sistemas razonan, ejecutan flujos de varios pasos y aprenden de sus propias acciones en bucles continuos, lo que requiere hardware especializado tanto para entrenamiento como para inferencia.

Disponibilidad y ecosistema de software​


$GOOG (Alphabet) ha confirmado que ambos chips estarán disponibles de forma general a lo largo del ejercicio actual. La integración con la CPU propia Axion y con marcos de software abierto como JAX, PyTorch, vLLM y SGLang es un punto clave, ya que la mayoría de los equipos de ingeniería ya utilizan estas herramientas en sus flujos de trabajo.

La compañía también destaca que su infraestructura permite escalar hasta más de un millón de TPU en un solo clúster lógico, una cifra que marca el pulso de la carrera entre los grandes proveedores cloud por acaparar capacidad de cómputo.

La batalla por el silicio propio en la nube​


El anuncio de $GOOG (Alphabet) llega en un momento en el que los grandes proveedores cloud están invirtiendo masivamente en silicio propio para reducir su dependencia de Nvidia y AMD.

  • Amazon (AWS) ha ampliado un acuerdo de infraestructura de IA superior a los 100.000 millones de dólares a diez años con Anthropic, centrado en sus chips Trainium.
  • Microsoft y Meta continúan ampliando su propia base de capacidad instalada con presupuestos récord de inversión.

$GOOG (Alphabet) extiende además su capacidad de TPU a través de acuerdos plurianuales de varios gigavatios con Anthropic, y ha empezado a ofrecer sus procesadores a terceros socios estratégicos, incluyendo a OpenAI.

GOOG vs Nvidia: ¿sustitución o complemento?​


Pese al auge del silicio propio, la relación entre $GOOG (Alphabet) y Nvidia no es de sustitución inmediata. Google Cloud continúa integrando sistemas de Nvidia en su oferta, una señal de que las GPU siguen siendo la referencia para buena parte del mercado y de que los clientes demandan flexibilidad en las arquitecturas que utilizan.

El mensaje del mercado es claro: el crecimiento de la tarta del cómputo de IA es lo bastante grande para sostener a varios actores a la vez, aunque la disputa por los márgenes se endurecerá a medida que más proveedores cloud saquen al mercado chips propios competitivos.

Implicaciones para $GOOG como inversión​


Para $GOOG (Alphabet), la apuesta por el TPU 8t y el TPU 8i se traduce en dos vectores de negocio:

  • Refuerza la propuesta de valor de Google Cloud frente a AWS y Microsoft Azure.
  • Reduce la estructura de costes asociada al entrenamiento de modelos como Gemini, un aspecto decisivo cuando las inversiones en infraestructura de IA se han convertido en la principal partida del gasto de capital de las grandes tecnológicas.

La capacidad de ofrecer hardware propio competitivo no solo mejora los márgenes de $GOOG (Alphabet), sino que también atrae a clientes que buscan alternativas a las GPU de Nvidia, especialmente en un contexto donde la demanda de capacidad de cómputo sigue disparada.

Conclusión​


$GOOG (Alphabet) ha dado un golpe sobre la mesa con sus nuevos TPU, demostrando que la compañía no solo quiere ser un jugador relevante en la nube, sino también un competidor serio en el hardware de IA. La estrategia de doble arquitectura, la integración con software abierto y los acuerdos con grandes laboratorios de IA como Anthropic y OpenAI posicionan a $GOOG (Alphabet) como un actor clave en la próxima fase de la inteligencia artificial.

La guerra por el cómputo de IA está lejos de terminar, pero $GOOG (Alphabet) acaba de demostrar que tiene armas propias para pelear.

Foto: Markus Mainka / Shutterstock
 
Atrás
Arriba
[FOX] Ultimate Translator