Intel, Google, Microsoft, Meta y otros gigantes tecnológicos están estableciendo un nuevo grupo industrial, el Ultra Accelerator Link (UELink) Promoter Group, que guiará el desarrollo de componentes que unen chips aceleradores de IA en centros de datos.

Anunciado el jueves, UELink Promoter Group, que también incluye a AMD (pero no a Arm), Hewlett Packard Enterprise, Broadcom y Cisco, propone un nuevo estándar industrial para conectar chips aceleradores de IA que se encuentran en un número cada vez mayor de servidores. En términos generales, los aceleradores de IA van desde chips GPU hasta soluciones diseñadas a medida que aceleran el entrenamiento, el ajuste y la ejecución de modelos de IA.

«La industria necesita un estándar abierto que pueda avanzar muy rápidamente, en un (formato) abierto que pueda soportar múltiples empresas en todo el ecosistema», dijo a los periodistas Forrest Norrod, director general de soluciones de centros de datos de AMD, en una sesión informativa el miércoles. nos permite agregar valor.» «La industria necesita un estándar que permita que la innovación avance rápidamente sin que ninguna empresa la obstaculice».

La primera versión del estándar propuesto, UALink 1.0, conectaría hasta 1.024 aceleradores de IA (solo GPU) en un único “pod” informático. (el grupo define un vaina Servidores como uno o varios bastidores). UALink 1.0 se basa en «estándares abiertos» que incluyen Tejido infinito de AMDSegún UElink Promoter Group, esto permitirá la carga y el almacenamiento directo entre la memoria conectada a un acelerador de IA y, en general, aumentará las velocidades al tiempo que reducirá la latencia de transferencia de datos en comparación con las especificaciones de interconexión existentes.

enlace
Credito de imagen: Grupo promotor UElink

El grupo dice que formará un consorcio en el tercer trimestre, el Consorcio UALink, que supervisará el desarrollo de la especificación UALink en el futuro. UALink 1.0 estará disponible para las empresas que se unan al consorcio aproximadamente al mismo tiempo, con una especificación actualizada de mayor ancho de banda, UALink 1.1, que llegará en el cuarto trimestre de 2024.

Norrod dijo que los primeros productos UElink se lanzarán «en los próximos años».

El nombre de Nvidia, que es, con diferencia, el mayor productor de aceleradores de IA, brilla por su ausencia en la lista de miembros del grupo. estimado 80% a 95% del mercado. Nvidia se negó a hacer comentarios para esta historia. Pero no es difícil ver por qué el fabricante de chips no está apoyando con entusiasmo a UElink.

Por un lado, Nvidia ofrece su propia tecnología de interconexión patentada para conectar GPU dentro de los servidores del centro de datos. Probablemente la empresa no esté muy interesada en admitir especificaciones basadas en tecnologías rivales.

Luego está también el hecho de que Nvidia opera desde una posición de gran poder e influencia.

En el trimestre fiscal más reciente de Nvidia (primer trimestre de 2025), las ventas del centro de datos de la compañía, incluidas las ventas de sus chips de IA, crecieron más del 400% respecto al trimestre del año anterior. continúa Según la situación actual, superará a Apple y se convertirá en la segunda empresa más valiosa del mundo en algún momento de este año.

Entonces, en pocas palabras, Nvidia no tiene que seguir el juego si no quiere.

En cuanto a Amazon Web Services (AWS), el único gigante de la nube pública que no contribuye a UALink, parece estar en modo de «esperar y ver» para reducir sus diversos esfuerzos internos de hardware acelerador. También puede ser que AWS, que mantiene su control en el mercado de servicios en la nube, no vea mucho sentido estratégico en oponerse a Nvidia, que suministra la mayoría de las GPU que entrega a sus clientes.

AWS no respondió a la solicitud de comentarios de TechCrunch.

De hecho, los mayores beneficiarios de UElink, además de AMD e Intel, son Microsoft, Meta y Google, que han gastado miles de millones de dólares en GPU de Nvidia para alimentar sus nubes y entrenar sus modelos de IA en constante crecimiento. Todos quieren distanciarse de un proveedor que consideran preocupantemente dominante en el ecosistema de hardware de IA.

Google tiene chips personalizados para entrenar y ejecutar modelos de IA, TPU y Axion. Amazon tiene varias familias de chips de IA. El año pasado, Microsoft entró en este campo con Maia y Cobalt. Y Meta está perfeccionando su línea de aceleradores.

Mientras tanto, Microsoft y su socio cercano OpenAI han… Presuntamente Hay planes para gastar al menos 100 mil millones de dólares en una supercomputadora para entrenar modelos de IA, que estarán equipados con versiones futuras de los chips Cobalt y Maia. Esos chips necesitarán algo para conectarlos, y probablemente será UALink.

Source link