Cuando hablamos de computación en la nube, generalmente pensamos en el conocido procesador x64, ya sea de Intel o AMD. Pero otra tecnología está cobrando cada vez más importancia: la GPU, o unidad de procesamiento de gráficos.

Hay dos razones para esto. La primera es que la GPU moderna es una poderosa plataforma de computación paralela, ideal para las redes neuronales que sustentan gran parte del aprendizaje automático moderno, impulsando marcos familiares como TensorFlow. El otro es un regreso a las raíces de la GPU, proporcionando granjas de procesamiento a escala de la nube para visualizar datos y crear imágenes 3D para auriculares de realidad aumentada, descargando gráficos de los auriculares. Las GPU también forman parte de una nueva generación de VDI (infraestructura de escritorio virtual), que ofrece todas las funciones que los usuarios esperan de sus escritorios, transmitidas desde la nube.

Microsoft ha estado a la vanguardia de este movimiento, con máquinas virtuales basadas en GPU en su nube de Azure. Trabaja con empresas asociadas para crear conjuntos de GPU que pueden compartir muchas máquinas virtuales, en los mismos bastidores que sus servidores Olympus, con conexiones de gran ancho de banda entre GPU y CPU. Comenzar es tan fácil como iniciar cualquier máquina virtual, con versiones para cómputo, aprendizaje automático y gráficos.

Índice
  • La nube híbrida de Azure
  • Agregar GPU a Azure Stack Hub
  • Ponga la GPU en el borde
  • La nube híbrida de Azure

    La nube de hiperescala de Azure es solo una parte de la nube de Microsoft. Redmond tiene claro que su visión abarca una nube híbrida, que abarca desde puntos finales de IoT simples hasta redes perimetrales, centros de datos y todo el camino hasta Azure. Esto ha llevado al lanzamiento de una familia de productos Azure Stack que brindan extensiones en la nube compatibles con Azure en sus centros de datos y más allá. El núcleo de la familia Azure Stack es Azure Stack Hub, el hardware original del centro de datos certificado por Microsoft que ejecuta una pila de software administrada por Microsoft.

    Ha sido interesante observar la evolución de la plataforma Azure Stack, y la última versión de la plataforma ha agregado compatibilidad con una nueva generación de hardware que ahora incluye compatibilidad con GPU. Las versiones iniciales del software Azure Stack se centraron en admitir los servicios básicos de Azure, así como la infraestructura virtual para manejar las tareas informáticas. Esto limitó el rango de tamaños y funciones de las máquinas virtuales, y admitió las máquinas virtuales de las series A, D y F de Azure.

    Agregar GPU a Azure Stack Hub

    La versión 2002 de Azure Stack Hub ofrece una vista previa pública de las máquinas virtuales de la serie N. Azure ha estado ejecutando una variedad de máquinas virtuales de la serie N basadas en GPU Nvidia durante algún tiempo, con máquinas virtuales de la serie NC que admiten tareas informáticas, la serie ND para grandes aprendizaje automático basado en datos y la serie NV para visualización, renderizado y VDI. Han demostrado ser populares y son compatibles con los sistemas operativos invitados de Windows y Linux.

    El V100 de Nvidia (arriba) admitirá máquinas virtuales que ejecutan cargas de trabajo de visualización y aprendizaje automático. La T4 (arriba) es una GPU de baja potencia destinada a la inferencia de aprendizaje profundo.
    Imagen: Nvidia

    Microsoft está trabajando con sus socios de hardware de Azure Stack para brindar soporte de GPU a los nodos del servidor. Agregar compatibilidad con las implementaciones existentes de Azure Stack Hub significará reemplazar los nodos del servidor con hardware más nuevo, ya que los nodos más antiguos no tendrán las GPU adecuadas. Microsoft ha certificado dos GPU Nvidia diferentes con Azure Stack Hub para la vista previa pública del servicio, el V100 Tensor Core y el T4 Tensor Core.

    El V100 admitirá máquinas virtuales NCv3, con soporte de visualización y aprendizaje automático, similar al estándar NC6s v3 de Azure. Estos cuentan con 6 procesadores virtuales, hasta 112 GB de RAM y 736 GB de almacenamiento local. Tiene acceso a una sola GPU con 16 GB de memoria de video. Deberá instalar la extensión del controlador de GPU de Nvidia en sus imágenes de VM para aprovechar el nuevo hardware, ya que esto le permite instalar los controladores apropiados para procesamiento o procesamiento de GPU desde Azure Portal (y usar ARM para imágenes preconfiguradas).

    La GPU T4 es una tarjeta más nueva que la V100, pero es difícil compararla directamente ya que se dirige a diferentes cargas de trabajo. Ciertamente es menos capaz de realizar tareas informáticas puras, pero es un dispositivo mucho menos potente, con 75 W en comparación con los 250 W del V100. Nvidia sugiere que el T4 es más adecuado para la inferencia que para el entrenamiento de modelos ML.

    Con la compatibilidad con GPU en Azure Stack Hub, puede comenzar a mover ML y otras cargas de trabajo basadas en GPU desde la nube a su centro de datos. La latencia debe reducirse, así como los costos de ancho de banda, ya que los datos no necesitarán viajar a través de costosas conexiones WAN a Azure. También podrá construir y probar sus modelos con datos confidenciales, manteniendo sus operaciones en cumplimiento con las regulaciones locales y sus datos bajo su control.

    Ponga la GPU en el borde

    No solo Azure Stack Hub es compatible con GPU. Su propio hardware Azure Stack Edge ahora ofrece GPU Nvidia T4 Tensor Core. Agregar una GPU a estas unidades de un solo bastidor tiene mucho sentido, especialmente si planea ejecutar cargas de trabajo de aprendizaje automático en escenarios informáticos de borde. La aceleración de GPU aquí facilitará la ejecución de modelos predictivos en aplicaciones de IoT, lo que le permitirá crear, probar, entrenar y ejecutar su aprendizaje automático en las instalaciones sin tener que transferir conjuntos de datos de entrenamiento potencialmente confidenciales basados ​​en hardware industrial a la nube pública. Mantener estos datos en su propio centro de datos y en el borde de su red lo mantiene más seguro mientras ayuda a controlar los costos de datos y el uso de ancho de banda.

    VER: Multicloud: una hoja de trucos (PDF gratuito)

    Usar GPU T4 en el perímetro de la red tiene mucho sentido. Es poco probable que desarrolle modelos complejos de aprendizaje automático; en su lugar, utilizará plantillas prediseñadas, ya sea las suyas propias o contenedores como los Servicios cognitivos de Microsoft. Colocar la computación GPU en un solo bastidor como este es una buena manera de entregarlo a centros de datos más pequeños a escala metropolitana, o incluso a una jaula en un transmisor celular. Microsoft también está trabajando para poner Azure Stack Edge en gabinetes resistentes para su uso en condiciones extremas, ayudando a entregar ML a barcos, plataformas de petróleo y gas, e incluso en respuesta a emergencias y desastres.

    El aprendizaje automático es una tecnología cada vez más importante, pero también es difícil crear y entregar sus propias plataformas de aprendizaje automático. La capacidad de aprovechar las herramientas de Azure para crear, probar e implementar modelos en sus propios centros de datos y bastidores es una ventaja significativa para la familia Azure Stack. El hecho de que pueda usar el mismo hardware para mejorar el rendimiento de VDI y descargar la representación de imágenes de dispositivos móviles y de realidad mixta es una ventaja adicional.