NVIDIA presentó la primera supercomputadora de IA de clientes múltiples y nativa de cloud: la NVIDIA DGX SuperPOD™ de próxima generación cuenta con las DPU NVIDIA BlueField®-2.

Al potenciar la DGX SuperPOD con las DPU BlueField-2 (unidades de procesamiento de datos que descargan, aceleran y aíslan los datos de los usuarios), es posible proporcionar a los clientes conexiones seguras a su infraestructura de IA.

La empresa también presentó  NVIDIA Base Command™, que permite que múltiples usuarios y equipos de TI accedan, compartan y operen de forma segura su infraestructura DGX SuperPOD. Base Command coordina las operaciones y el entrenamiento de IA en la infraestructura DGX SuperPOD para permitir el trabajo de equipos de científicos y desarrolladores de datos ubicados en todo el mundo.

“La IA es la tecnología más poderosa que el mundo haya conocido y los sistemas NVIDIA DGX son la herramienta más eficaz para aprovecharla”, dijo Charlie Boyle, vicepresidente y gerente general de sistemas DGX de NVIDIA. “La nueva DGX SuperPOD, que combina varios sistemas DGX, proporciona un data center de IA listo para usar, que se puede compartir de forma segura entre equipos enteros de investigadores y desarrolladores”.

Avanzar en la IA con DGX SuperPOD

Las DGX SuperPOD son supercomputadoras de IA con 20 sistemas NVIDIA DGX A100™ o más y redes NVIDIA InfiniBand HDR. Algunas de las empresas más recientes que implementan DGX SuperPOD para impulsar nuevas soluciones y servicios de IA:

  • Sony Group Corporation está utilizando DGX SuperPOD para permitir que su equipo de investigación y desarrollo corporativo infunda la IA en toda la empresa.
  • NAVER, una empresa líder en tecnología de Internet en Corea y Japón, está entrenando modelos gigantes de lenguaje de IA a escala en DGX SuperPOD para ser pioneros en nuevos servicios en aplicaciones de comercio electrónico, búsqueda, entretenimiento y pago.
  • Recursion, una empresa de biología digital que trabaja para industrializar el descubrimiento de fármacos, está utilizando DGX SuperPOD para acelerar sus modelos de deep learning y potenciar su creciente fuerza laboral de expertos en machine learning.
  • MTS, la empresa de telecomunicaciones más grande de Rusia, está utilizando su DGX SuperPOD como base para su crear infraestructura de desarrollo preparada para IA y nuevas ofertas de servicios de cloud público, así como para integrar la IA y la ciencia de datos en todos sus departamentos.
  • VinAI está usando su DGX SuperPOD, que será la supercomputadora de IA más rápida de Vietnam, para acelerar las iniciativas de IA que incluyen vehículos autónomos, atención médica y servicios al consumidor en el sudeste asiático y todo el mundo.

Además, NVIDIA y Schrödinger anunciaron hoy por separado una asociación estratégica diseñada para aprovechar las DGX SuperPOD y acelerar aún más el descubrimiento de fármacos a escala de supercomputación. Su solución desarrollada conjuntamente puede permitir a las empresas farmacéuticas y de biotecnología de todos los tamaños simular combinaciones moleculares con la física y la IA para identificar y optimizar los compuestos más prometedores para un posible uso terapéutico.

IA Segura y Nativa de Cloud a Escala

NVIDIA diseñó la nueva DGX SuperPOD para satisfacer los crecientes requisitos de seguridad y escalabilidad de los clientes a medida que se amplía la adopción de la IA. Cada vez más, los departamentos de TI empresariales necesitan respaldar el trabajo de varios equipos en diferentes ubicaciones, mientras que las instituciones académicas y de investigación a menudo otorgan a organizaciones externas acceso a sus recursos de computación.

Las DPU BlueField-2 descargan, aceleran y aíslan a los usuarios y sus datos, lo que permite a las organizaciones proporcionar de manera segura acceso al cloud privado para su infraestructura de DGX SuperPOD con seguridad que abarca el tráfico de usuarios, firewalls y acceso de múltiples clientes al almacenamiento. DDN es el primer socio de almacenamiento de NVIDIA certificado para admitir la DGX SuperPOD de próxima generación con BlueField-2.

NVIDIA Base Command permite a los equipos de desarrolladores de IA y científicos de datos aprovisionar y programar cargas de trabajo sin problemas en la infraestructura DGX, desde la creación de prototipos hasta la producción.

Para respaldar el proceso iterativo de crear y perfeccionar modelos de IA, Base Command proporciona telemetría incorporada para que los usuarios validen técnicas de deep learning, configuraciones de carga de trabajo y asignaciones de recursos para mejorar constantemente los resultados.

La Nueva Suscripción a DGX Station A100 Hace que la IA Sea Más Accesible

NVIDIA también presentó una oferta de suscripción disponible para NVIDIA DGX Station A100, el único dispositivo de grupo de trabajo del mundo en un factor de forma de oficina que admite la tecnología de Múltiples instancias de GPU de NVIDIA.

El nuevo programa de suscripción facilita que las empresas en cada etapa de crecimiento aceleren el desarrollo de la inteligencia artificial fuera del data center para los equipos que trabajan en oficinas corporativas, instalaciones de investigación, laboratorios y oficinas en el hogar.

Con cuatro GPU NVIDIA A100 de 80 GB, DGX Station A100 ofrece una velocidad 3 veces mayor en comparación con su predecesor para cargas de trabajo de IA complejas, como el procesamiento de idiomas naturales. Hasta 28 científicos de datos pueden compartir una DGX Station A100 simultáneamente, lo que permite a las empresas acelerar el desarrollo de la inteligencia artificial y ahorrar hasta 700,000 dólares en comparación con los servidores de data centers.

Disponibilidad

Las NVIDIA DGX SuperPOD nativas de cloud y de clientes múltiples estarán disponibles en el segundo trimestre de 2021 a través de los socios globales de NVIDIA, que pueden proporcionar precios a los clientes calificados que los soliciten.

NVIDIA Base Command también estará disponible a partir del segundo trimestre.

Las suscripciones para NVIDIA DGX Station A100 están disponibles a partir de un precio de lista de $9,000 por mes.