Amazon Web Services (AWS), la división de computación en la nube de Amazon, anunció este martes que ofrecerá recursos de computación gratuitos para investigadores interesados en usar sus chips de inteligencia artificial (IA) personalizados, con la intención de desafiar el dominio de Nvidia en este sector. Este programa de AWS tiene como objetivo apoyar a los desarrolladores de IA y posicionar sus chips como una alternativa seria frente a los populares semiconductores de Nvidia, así como a los de otros competidores como Advanced Micro Devices (AMD) y Google Cloud de Alphabet, según un reporte de Reuters.
AWS detalló que pondrá a disposición un fondo de créditos en la nube valorado en 110 millones de dólares, permitiendo a los investigadores utilizar su chip Trainium, diseñado específicamente para el desarrollo de modelos avanzados de IA. Los créditos cubrirán el uso de sus centros de datos y estarán disponibles para instituciones líderes, como la Universidad Carnegie Mellon y la Universidad de California en Berkeley, con un total de 40,000 chips Trainium de primera generación destinados al programa.
AWS y su Estrategia Distintiva Frente a Nvidia
La propuesta de AWS llega en un contexto de competencia feroz con Microsoft, otro gigante en el sector de la computación en la nube que ha visto aumentar su cuota de mercado gracias a la creciente demanda de soluciones para IA. Según declaró Gadi Hutt, jefe de desarrollo de negocio de chips de IA en AWS, la estrategia de Amazon no busca imitar la de Nvidia, sino destacarse al ofrecer a los desarrolladores más control sobre el hardware subyacente.
A diferencia de Nvidia, cuya arquitectura depende principalmente de su software CUDA para ejecutar modelos de IA, AWS está abriendo su arquitectura de chip a través de la publicación de lo que se conoce como “arquitectura del conjunto de instrucciones”. Esto permite que los desarrolladores programen los chips Trainium directamente, en lugar de depender de software intermedio. Hutt destaca que esta apertura permitirá a los clientes realizar pequeños ajustes en el hardware, lo que puede representar ahorros significativos cuando se operan decenas de miles de chips simultáneamente.
“Piense en los clientes que invierten cientos de millones de dólares, si no más, en infraestructura computacional alquilada”, comentó Hutt a Reuters. “Para ellos, cualquier oportunidad que mejore el rendimiento o reduzca el costo es esencial”.
Esta jugada de AWS podría poner presión sobre Nvidia, que se ha mantenido en la cima gracias al rendimiento de sus chips y a la lealtad de los desarrolladores hacia CUDA. Sin embargo, la apertura de AWS hacia la programación de bajo nivel podría atraer a instituciones y empresas que buscan optimizar cada detalle de sus modelos de IA en busca de una ventaja competitiva y de costos.
© Reproducción reservada