Microsoft e Intel simplifican las implementaciones de inteligencia artificial en Edge

microsoft

La nube pública ofrece una potencia inigualable para entrenar modelos sofisticados de aprendizaje profundo. Los desarrolladores pueden elegir entre un conjunto diverso de entornos basados ​​en hardware de CPU, GPU y FPGA.

Los proveedores de la nube que exponen entornos informáticos de alto rendimiento a través de máquinas virtuales y contenedores proporcionan una pila unificada de plataformas de hardware y software. Los desarrolladores no deben preocuparse por obtener el conjunto correcto de herramientas, marcos y bibliotecas necesarias para capacitar a los modelos en la nube.

Pero entrenar un modelo de IA es solo la mitad de la historia de la IA. El valor real de AI se deriva del entorno de tiempo de ejecución en el que los modelos predicen, clasifican o segmentan datos invisibles que se denominan inferencias. Si bien la nube es el entorno preferido para capacitar a los modelos, la computación perimetral se está convirtiendo en el destino de la inferencia.

Cuando se trata del borde, los desarrolladores no tienen el lujo de lidiar con una pila unificada. Los entornos informáticos de borde son extremadamente diversos y su gestión se deja principalmente a los equipos de tecnología de operaciones (OT).

La implementación de IA en el borde es compleja debido a la necesidad de optimizar modelos para hardware especialmente diseñado conocidos como aceleradores. Intel, NVIDIA, Google, Qualcomm y AMD ofrecen aceleradores de inteligencia artificial que complementan a las CPU para acelerar el rendimiento en tiempo de ejecución de los modelos de inteligencia artificial.

Dos jugadores clave de la industria, Microsoft e Intel, están tratando de simplificar la inferencia de inteligencia artificial en edge.

El año pasado, Intel lanzó el Kit de herramientas de optimización de red neuronal y de inferencia visual abierta ( OpenVINO ) que optimiza los modelos de aprendizaje profundo para una variedad de entornos basados ​​en CPU, GPU, FPGA y VPU. Los desarrolladores pueden traer el modelo TensorFlow, PyTorch o Caffe previamente capacitado y ejecutarlo a través de OpenVINO Toolkit para generar una representación intermedia del modelo altamente optimizada para el entorno de destino.

Microsoft ha estado invirtiendo fuertemente en las herramientas y plataformas que hacen que los desarrolladores que crean modelos de aprendizaje profundo sean altamente productivos. Azure ML, complementos de Visual Studio Code, MLOps, AutoML son algunas de las ofertas principales de Microsoft en el dominio de AI.

Microsoft también es un contribuyente clave para Open Neural Network Exchange ( ONNX ), un proyecto comunitario que tiene como objetivo brindar interoperabilidad entre marcos de aprendizaje profundo como Caffe2, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit y TensorFlow. Originalmente iniciado por AWS, Facebook y Microsoft, el proyecto ahora cuenta con el respaldo de muchos líderes de la industria, incluidos AMD, ARM, HP, Huawei, Intel, NVIDIA y Qualcomm.

Además de las herramientas de conversión e interoperabilidad, ONNX también actúa como un tiempo de ejecución unificado que se puede utilizar para hacer inferencias. En diciembre pasado, Microsoft anunció que está ejecutando ONNX de código abierto para impulsar la interoperabilidad y la estandarización. Incluso antes del tiempo de ejecución ONNX de código abierto, Microsoft comenzó a agruparlo en Windows 10. Con la estrecha integración de ONNX con .NET, la comunidad de desarrolladores de Microsoft puede construir e implementar fácilmente aplicaciones infundidas por AI en Windows 10.

El 21 de agosto, Intel anunció la integración de OpenVINO Toolkit con el tiempo de ejecución de ONNX, un proyecto impulsado en colaboración por Microsoft e Intel. Actual en la vista previa pública, el complemento ONNX Runtime unificado con OpenVINO está disponible como un contenedor Docker que se puede implementar en la nube o en el borde.

Los desarrolladores pueden descargar modelos ONNX listos para usar del Model Zoo , que es un repositorio de modelos pre-entrenados convertidos al formato ONNX.

Microsoft está extendiendo su Plataforma de aprendizaje automático como servicio (PaaS) para admitir el flujo de trabajo involucrado en la implementación de modelos ONNX en el borde. Los desarrolladores y los científicos de datos pueden construir tuberías integradas que automaticen la capacitación y la implementación de modelos desde la nube hasta el borde. El último paso de la tubería incluye la conversión de modelos a ONNX y empaquetarlo como un módulo Azure IoT Edge que es una imagen de contenedor Docker.

Intel está trabajando con proveedores de hardware como AAEON para enviar kits de desarrollo de inteligencia artificial que vienen con los aceleradores de inteligencia artificial como Intel Movidius Myriad X e Intel Mustang-V100F junto con OpenVINO Toolkit y Deep Learning Toolkit precargados.

Fecha actualización el 2021-08-23. Fecha publicación el 2019-08-23. Categoría: microsoft Autor: Oscar olg Mapa del sitio Fuente: forbes Version movil