Advertisement

AMD compite ‘rudo’ con Nvidia y lanza un nuevo chip para avanzar en la carrera de IA



De acuerdo con la empresa, esta nueva serie de dispositivos promete entregar hasta 35 veces mejor rendimiento en inferencia de IA (hacer funcionar modelos ya entrenados) respecto a los dispositivos de la competencia, una característica que la hace muy relevante para los clientes empresariales que piensan trasladar sus operaciones a estos entornos.

Cabe resaltar que este tipo de soluciones no están destinadas al usuario final, pues se componen de grandes conjuntos de procesadores, también conocidas como racks de centros de datos, que están especialmente diseñados para manejar grandes e intensas necesidades computacionales.

Los aceleradores de IA están especializados en tareas de IA y pueden especializarse aún más para tipos específicos de aplicaciones de IA. Si bien pueden aportar valor a sistemas que realizan funciones no relacionadas con la IA, están diseñados para tareas de IA y se aplican óptimamente a ellas.

Si bien este tipo de componentes no están orientados a los usuarios finales, son las piezas clave que permiten entrenar y ejecutar modelos de IA modernos, como los LLM (grandes modelos de lenguaje, como ChatGPT), generadores de imágenes, sistemas de recomendación y asistentes virtuales, entre otros ejemplos. Actualmente, empresas como xAI, de Elon Musk, o Meta, de Mark Zuckerberg, están haciendo uso de la infraestructura de AMD.

Aunque los usuarios finales no adquieren directamente alguno de estos chips, muchas de las herramientas que usan en su día a día —desde redes sociales hasta asistentes inteligentes— están impulsadas por ellos y su evolución representa una mejor relación con estas plataformas basadas en IA.

En términos de sostenibilidad, la serie Instinct MI350 superó el objetivo de cinco años de AMD de mejorar la eficiencia energética del entrenamiento de IA y los nodos de computación de alto rendimiento en 30 veces.

La serie MI350 estará disponible al inicio del tercer trimestre del año, según anunció AMD, y con este lanzamiento se espera que la compañía sea capaz de robar cuota de mercado a Nvidia, pues en la actualidad el sector está dominado por esta empresa. Según datos de JPR, la participación de Nvidia alcanzó el 90% a finales de 2024, mientras que la de AMD pasó del 17 al 10%.

No obstante, Su resaltó que las ventas de los aceleradores superó los 5,000 millones de dólares el año pasado y la compañía tiene la expectativa de que su segmento crecerá a “doble dígito” durante este 2025. “Creo que la demanda de computación de IA es fuerte”, comentó Su a finales de 2024.

AMD apuesta por una herramientas de código abierto para destacar

En una conversación con Expansión, Marcio Aguiar, director de la división Enterprise de Nvidia para América Latina, dijo que si bien hay una serie de competidores en el mercado, su principal ventaja es el hecho de que cuentan con una infraestructura que también contempla soluciones de software para sus clientes.

En este sentido, AMD también respondió a la competencia y anunció la disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y de código abierto, el cual es un software para el desarrollo rápido y de alto rendimiento de IA, donde los usuarios tienen acceso a un entorno en la nube totalmente administrado con las herramientas y la flexibilidad para comenzar con los proyectos de IA y crecer sin límites.

A partir de esta iniciativa se reducen las barreras y se amplía el acceso a la computación de próxima generación. AMD afirma que las colaboraciones estratégicas con líderes como Hugging Face, OpenAI y Grok demuestran el poder de las soluciones abiertas y co-desarrolladas.

“En AMD y, francamente, para nosotros como industria, la apertura dañó debería ser sólo una palabra de moda”, declaró Su. “En realidad, es fundamental cómo aceleramos la adopción a escala y el impacto de la IA en los próximos años”.





Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *