Intel, AMD y Nvidia proponen un nuevo estándar para hacer que el procesamiento de IA sea más eficiente • Tecno

En la búsqueda de un desarrollo de sistemas de IA más rápido y eficiente, Intel, AMD y Nvidia publicaron hoy un borrador de especificación para lo que denominan un formato de intercambio común para IA. Si bien es voluntario, el estándar propuesto de «coma flotante de 8 bits (FP8)», dicen, tiene el potencial de acelerar el desarrollo de la IA al optimizar el uso de la memoria del hardware y el trabajo tanto para el entrenamiento de la IA (es decir, la ingeniería de sistemas de IA) como para la inferencia (ejecutar el sistemas).

Al desarrollar un sistema de IA, los científicos de datos se enfrentan a opciones de ingeniería clave que van más allá de la simple recopilación de datos para entrenar el sistema. Uno es seleccionar un formato para representar los pesos del sistema; los pesos son los factores aprendidos de los datos de entrenamiento que influyen en las predicciones del sistema. Los pesos son los que permiten que un sistema como GPT-3 genere párrafos completos a partir de un indicador de una oración, por ejemplo, o DALL-E 2 para crear retratos fotorrealistas a partir de una leyenda.

Los formatos comunes incluyen punto flotante de precisión media, o FP16, que usa 16 bits para representar los pesos del sistema, y ​​precisión simple (FP32), que usa 32 bits. La precisión media y menor reducen la cantidad de memoria requerida para entrenar y ejecutar un sistema de IA mientras aceleran los cálculos e incluso reducen el ancho de banda y el uso de energía. Pero sacrifican algo de precisión para lograr esas ganancias; después de todo, 16 bits es menos para trabajar que 32.

Sin embargo, muchos en la industria, incluidos Intel, AMD y Nvidia, se están uniendo en torno a FP8 (8 bits) como el punto óptimo. En una publicación de blog, el gerente senior de marketing de productos del grupo Nvidia, Shar Narasimhan, señala que el formato propuesto mencionado anteriormente, que es FP8, muestra una «precisión comparable» a precisiones de 16 bits en casos de uso que incluyen sistemas de generación de imágenes y visión por computadora, al tiempo que ofrece «significativo» aceleraciones

Nvidia, Arm e Intel dicen que están haciendo su formato FP8 sin licencia, en un formato abierto. Un documento técnico lo describe con más detalle; Narasimhan dice que las especificaciones se enviarán al IEEE, la organización profesional que mantiene los estándares en una serie de dominios técnicos, para su consideración en una fecha posterior.

“Creemos que tener un formato de intercambio común permitirá avances rápidos y la interoperabilidad de las plataformas de hardware y software para hacer avanzar la informática”, Narasimhan.

El trío no está presionando por la paridad por la bondad de sus corazones, necesariamente. La arquitectura GH100 Hopper de Nvidia implementa de forma nativa FP8, al igual que el conjunto de chips de entrenamiento Gaudi2 AI de Intel. Por su parte, se espera que AMD admita FP8 en su próxima APU Instinct MI300A.

Pero un formato FP8 común también beneficiaría a rivales como SambaNova, Groq, IBM, Graphcore y Cerebras, todos los cuales han experimentado o adoptado alguna forma de FP8 para el desarrollo de sistemas. En una publicación de blog de julio, el cofundador y director de tecnología de Graphcore, Simon Knowles, escribió que «el advenimiento del punto flotante de 8 bits ofrece tremendos beneficios de rendimiento y eficiencia para el cómputo de IA», afirmando que también es «una oportunidad» para que la industria se establezca en un «estándar único y abierto» en lugar de marcar el comienzo de una combinación de formatos competitivos.

Continuar leyendo: Intel, AMD y Nvidia proponen un nuevo estándar para hacer que el procesamiento de IA sea más eficiente • Tecno