Nvidia sondeo una obra de módulos de chips múltiples para satisfacer las evacuación de datos en progreso

0


Porque importa: Los recursos de aprendizaje profundo actualmente disponibles se están quedando atrás debido a la creciente complejidad, los requisitos de recursos divergentes y las restricciones impuestas por las arquitecturas de hardware existentes. Varios investigadores de Nvidia publicaron recientemente un documento técnico que describe la búsqueda de la empresa de módulos de chips múltiples (MCM) para cumplir con estos requisitos en evolución. El artículo presenta la posición del equipo sobre los beneficios de una GPU Componible-On-Package (COPA) para adaptarse mejor a varios tipos de cargas de trabajo de aprendizaje profundo.

Las unidades de procesamiento de gráficos (GPU) se han convertido en uno de los activos principales que admiten DL debido a sus capacidades y optimizaciones inherentes. COPA-GPU se basa en el entendimiento de que los diseños de GPU convergentes tradicionales que utilizan hardware específico de dominio se están convirtiendo rápidamente en una solución poco práctica. Estas soluciones de GPU convergentes se basan en una arquitectura que consiste en el troquel tradicional y la incorporación de hardware especializado como memoria de alto ancho de banda (HBM), Tensor Core (Nvidia) / Matrix Core (AMD), core ray tracing (RT), etc. . Este diseño convergente da como resultado un hardware que puede ser adecuado para algunas tareas pero ineficiente para complementar otras.

A diferencia de los diseños de GPU monolíticos actuales, que combinan todos los componentes de ejecución específicos y el almacenamiento en caché en un solo paquete, la arquitectura COPA-GPU ofrece la capacidad de combinar varios bloques de hardware para adaptarse mejor a las cargas de trabajo dinámicas que se presentan en la computación de alto rendimiento (HPC) y el aprendizaje profundo actuales. (DL) entornos. Esta capacidad de incorporar más capacidad y albergar más tipos de cargas de trabajo puede generar niveles más altos de reutilización de GPU y, lo que es más importante, una mayor capacidad para que los científicos de datos superen los límites de lo que es posible con los recursos existentes.

Aunque a menudo se agrupan, los conceptos de inteligencia artificial (IA), aprendizaje automático (ML) y DL tienen diferencias claras. DL, que es un subconjunto de AI y ML, intenta emular la forma en que nuestro cerebro humano maneja la información mediante el uso de filtros para predecir y clasificar la información. DL es la fuerza impulsora detrás de muchas funciones de IA automatizadas que pueden hacer de todo, desde conducir nuestros automóviles hasta monitorear los sistemas financieros en busca de actividades fraudulentas.

Si bien AMD y otros han promocionado la tecnología de chiplet y chip stack como el próximo paso en la evolución de la CPU y la GPU en los últimos años, el concepto de MCM está lejos de ser nuevo. Los MCM se remontan a los MCM de memoria burbuja de IBM y los mainframes 3081 en las décadas de 1970 y 1980.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More