Arme para reducir la huella del centro de datos global a través de la colaboración en la nube de AWS

Arm ha establecido planes para reducir el tamaño de su centro de datos global en un 45% y reducir su uso de recursos informáticos en las instalaciones en un 80% al descargar algunas de sus tareas informáticas centrales a la nube de Amazon Web Services (AWS).

El fabricante británico de semiconductores está en proceso de migrar la mayoría de sus flujos de trabajo de automatización de diseño electrónico (EDA) a la plataforma de nube pública de Amazon, y afirma que el progreso que ha logrado en este frente hasta ahora ha llevado a una mejora de 6 veces en el rendimiento. tiempo para dichas cargas de trabajo.

La EDA es una parte importante del proceso de desarrollo de semiconductores e implica el uso de herramientas de software para diseñar y analizar chips de computadora, y los flujos de trabajo que genera incluyen elementos de diseño frontal, simulación, verificación y análisis de datos.

“Estos flujos de trabajo altamente iterativos tradicionalmente tardan muchos meses o incluso años en producir un nuevo dispositivo, como un sistema en un chip, e implican una potencia informática masiva”, dijeron Arm y AWS en un comunicado anunciando su unión tecnológica.

Es un trabajo complejo ya que cada chip está diseñado para ofrecer el máximo rendimiento en la menor cantidad de espacio posible y puede contener miles de millones de transistores que deben diseñarse hasta un nivel nanométrico de un solo dígito.

Tradicionalmente, Arm ha ejecutado estas cargas de trabajo computacionalmente intensivas desde centros de datos locales, pero ahora está en el proceso de cambiar sus procesos para que se pueda realizar más de este tipo de trabajo en la nube de AWS.

“Las empresas de semiconductores que ejecutan estas cargas de trabajo en las instalaciones deben equilibrar constantemente los costos, los cronogramas y los recursos del centro de datos para avanzar en múltiples proyectos al mismo tiempo. Como resultado, pueden enfrentar una escasez de poder de cómputo que ralentiza el progreso o soportar el gasto de mantener la capacidad de cómputo inactiva ”, continuó el comunicado.

Además de sus cargas de trabajo de EDA, la empresa también está utilizando la nube de AWS para recopilar, integrar y analizar los datos de telemetría que acumula para informar sus procesos de diseño, que, según afirma, generarán mejoras en el desempeño de sus equipos de ingeniería y de la organización en general. eficiencia.

Específicamente, Arm alojará estas cargas de trabajo en una variedad de diferentes tipos de instancias de Amazon Elastic Compute Cloud (EC2) y hará uso del servicio AWS Compute Optimiser basado en aprendizaje automático para decidir qué instancias deben ejecutarse y dónde.

también se basa en la experiencia del socio de AWS, Databricks, para desarrollar y ejecutar aplicaciones de aprendizaje automático en Amazon EC2 que le permitirán procesar datos extraídos de sus procesos de ingeniería para mejorar la eficiencia de sus flujos de trabajo también.

«A través de nuestra colaboración con AWS, nos hemos centrado en mejorar la eficiencia y maximizar el rendimiento para devolver un tiempo precioso a nuestros ingenieros para que se centren en la innovación», dijo Rene Haas, presidente de IP Products Group (IPG) en Arm.

«Estamos optimizando los flujos de trabajo de ingeniería, reduciendo costos y acelerando los plazos de los proyectos para ofrecer resultados poderosos a nuestros clientes de manera más rápida y rentable que nunca».

Peter DeSantis, vicepresidente senior de infraestructura global y soporte al cliente en AWS, agregó: “AWS proporciona computación de alto rendimiento verdaderamente elástica, rendimiento de red incomparable y almacenamiento escalable que se requiere para la próxima generación de cargas de trabajo de EDA, y es por eso que están muy emocionados de colaborar con Arm para impulsar sus exigentes cargas de trabajo de EDA que ejecutan nuestros procesadores Graviton2 de alto rendimiento basados ​​en Arm ”.

Salir de la versión móvil