Uber ha dado un paso decisivo en esta dirección al integrar chips personalizados diseñados por Amazon Web Services (AWS) en su infraestructura operativa. Esta alianza estratégica busca optimizar el entrenamiento de modelos de lenguaje y acelerar procesos de computación que son vitales para la logística en tiempo real de la plataforma.
Según confirmaron fuentes del gigante de la nube, Uber está utilizando los chips Trainium e Inferentia de Amazon. Estos componentes están diseñados específicamente para manejar cargas de trabajo de aprendizaje profundo (Machine Learning) con un consumo energético significativamente menor y una velocidad superior a los procesadores de propósito general tradicionales.
El mercado de hardware para IA ha estado dominado por Nvidia. Sin embargo, el alto costo y la limitada disponibilidad de sus GPUs han empujado a gigantes como Uber a buscar alternativas en los servicios de nube que ofrecen silicio personalizado.
Las empresas ya no solo compran software; ahora seleccionan cuidadosamente la arquitectura del chip sobre la que corren sus aplicaciones. Para Amazon, asegurar a un cliente de la talla de Uber valida su estrategia de fabricar semiconductores propios para competir con otros titanes del sector.



