Inteligencia artificial en tiempo real
Módulos COM con procesadores embebidos AMD Ryzen para inteligencia artificial
Módulos COM con procesadores embebidos AMD Ryzen para inteligencia artificial.
Si se va a utilizar inteligencia artificial (IA) en aplicaciones industriales, a menudo se requiere la informática en paralelo con los tiempos de respuesta más cortos en tiempo real. Esto impone nuevas exigencias a la tecnología informática embebida, como módulos COM (Computeron-modules) con procesadores AMD Ryzen Embedded V1000.
El mercado de IA está experimentando un auge increíble: según Researchandmarkets, se espera que el mercado mundial de IA crezca un 36,6% anual hasta los 190.610 millones de dólares para el 2025. Y ahora, la IA ya está a nuestro
alrededor. En nuestra vida personal, experimentamos AI, por ejemplo, en recomendaciones de productos, películas y música, así como también líneas directas de servicio, donde los robots de AI responden las preguntas generales de los clientes de forma totalmente
autónoma. AI también está detrás de las funciones de los teléfonos inteligentes, como el reconocimiento facial y de gestos y los asistentes personales (de voz).
Sin embargo, según el estudio de Deloitte “Exponential technologies in manufacturing”, uno de los
impulsores más importantes para la nueva inteligencia artificial también es el sector de producción. Además de los casos de uso menos críticos, como la inteligencia artificial para el mantenimiento predictivo o el pronóstico de la demanda, la inteligencia industrial también se puede utilizar en áreas de aplicación que requieren capacidades en tiempo real. Estas incluyen, por ejemplo:
Procesamiento industrial de imágenes, donde la IA ayuda a capturar muchos estados diferentes y / o características del producto y a evaluarlas mediante el reconocimiento inteligente de patrones para permitir un control de calidad más fiable. Forbes afirma que la IA puede aumentar la tasa de detección de errores hasta en un 90%.
Robots cooperativos y de colaboración que comparten el mismo espacio de trabajo con los humanos y pueden reaccionar con flexibilidad ante eventos imprevistos, tomando decisiones basadas en la conciencia de la situación.
Vehículos industriales autónomos, donde se aplican requisitos muy similares.
Aplicaciones de inteligencia artificial en la industria de semiconductores; mostraron, por ejemplo, una reducción del 30% en las tasas de rechazo al usar Big Data para analizar datos de causa raíz, que deben recopilarse con alta precisión y en tiempo real.
Por último, existe una gran área de planificación y control de la producción en tiempo real de las fábricas de la Industria 4.0. Aquí, AI ayuda a optimizar los procesos “edge”, aumentando así la utilización de las máquinas y, en última instancia, la productividad de toda la fábrica.
El uso de IA en entornos industriales requiere una lógica integrada altamente avanzada, porque en los procesos rápidos, como en el caso de los sistemas de inspección, a menudo no hay más autoridad de control. Esto es diferente, por ejemplo, en tecnología médica, donde los resultados de AI del análisis automático de imágenes siempre están controlados por un médico y el trabajo de AI es simplemente hacer recomendaciones, acelerando los pasos de evaluación de datos en el proceso. Por esta razón, los sistemas de AI para uso en entornos industriales siempre deben garantizar que los procesos de toma de decisiones de AI sean rastreables y, en lo que respecta a los requisitos de seguridad de la máquina y del trabajo, 100% correctos. La formación de IA es, por lo tanto, mucho más compleja en un entorno industrial. Apenas hay ejemplos negativos. Este aspecto también es diferente de la tecnología médica, donde se pueden utilizar miles y miles de diagnósticos negativos y positivos para entrenar y enseñar a los sistemas. En la industria, por otro lado, los errores deben evitarse desde el principio. Esta es la razón por la que los gemelos digitales, es decir, las imágenes digitales de máquinas y sistemas se utilizan aquí para simular hallazgos negativos y luego, por ejemplo, descartar ciertos movimientos de robots desde el principio. Entonces, ¿cómo desarrollan y ejecutan soluciones de IA industrial sin fallos para los requisitos en tiempo real?
Los procesadores embebidos correctos
Independientemente de la configuración que los OEM elijan para su IA: la potencia de procesamiento requerida, a menudo masiva y paralela para las máquinas o sistemas individuales capaces en tiempo real es, sin embargo, muy alta, incluso cuando se utiliza una IA “ordinaria”, puramente basada en el conocimiento. Las últimas unidades de procesamiento acelerado (APU) embebidas de AMD son compatibles con esta necesidad, ya que ofrecen una GPU potente además del procesador x86 clásico, cuyas funciones de propósito general también admiten procesos de cálculo de IA paralelos, como los que se utilizan en los centros de datos. Usando GPUS embebidas discretas del mismo fabricante, esto se puede escalar aún más haciendo posible adaptar el rendimiento de la computación paralela abierta a los requisitos precisos de la aplicación industrial AI.
AMD Ryzen Embedded V1000
Con su rendimiento informático y gráfico significativamente mayor, la nueva serie AMD Ryzen Embedded V1000, de potencia ultra baja y robusta industrialmente, es una opción particularmente buena. Con hasta 3,6 TFLOPS de la CPU multiuso y la potente unidad gráfica de propósito general, ofrece una potencia de cálculo flexible que hasta hace unos años solo era posible con
sistemas que consumían varios cientos de vatios. Hoy en día, esta potencia de cálculo ya está disponible a partir de 15 vatios. Esto hace que los procesadores sean incluso adecuados para la integración en dispositivos sin ventilador, completamente cerrados y, por lo tanto, altamente robustos para el uso en fábrica. Como procesadores en tiempo real, también admiten memoria con el Código de Corrección de Errores (ECC), que es esencial para la mayoría de las máquinas y sistemas industriales.
Soporte integral de software
En lo que respecta al entorno de software necesario para la introducción rápida y efectiva de IA y el deep learning, los procesadores integrados AMD ofrecen un soporte integral para herramientas y marcos como Tensorflow, Caffe y Keras. En: https://gpuopen.com/ professional-compute/ los desarrolladores también encontrarán una amplia gama de herramientas de software y entornos de programación para el aprendizaje profundo y aplicaciones de inteligencia artificial, como la popular plataforma de código abierto ROCM para aplicaciones GPGPU. La idea de código abierto es particularmente importante en este contexto, ya que evita que los OEM se vuelvan dependientes de una solución propietaria. HIPFY es una herramienta disponible con la cual las aplicaciones patentadas pueden transferirse a aplicaciones portátiles HIP C ++, para evitar la dependencia peligrosa de fabricantes de GPU individuales. El desarrollo de AI también se ha vuelto mucho más fácil con la disponibilidad de Opencl 2.2, ya que desde entonces el lenguaje del kernel Opencl C ++ se ha integrado en Opencl, lo que facilita mucho la escritura de programas paralelos. Con tal ecosistema, tanto la inteligencia artificial basada en el conocimiento, como el deep learning son comparativamente fáciles de implementar, y ya no son solo la reserva de gigantes de TI multimillonarios como Google, Apple, Microsoft y Facebook.
Diseño rápido con módulos COM
Ahora, la única pregunta que queda es: ¿Cómo pueden los OEM diseñar estos habilitadores de AI basados en hardware en sus aplicaciones de la manera más rápida y eficiente posible? Una de las formas más eficientes es a través de módulos COM estandarizados que han sido equipados con soporte integral para el procesamiento de GPGPU. Los módulos COM tienen un tamaño compacto, admiten diseños con conjuntos de características específicos de OEM y, como súper componentes listos para la aplicación, vienen pre-integrados con todo lo que los desarrolladores tendrían que montar arduamente en un diseño totalmente personalizado. Esto hace que los módulos COM sean cruciales para acelerar el tiempo de comercialización. Como no solo están listos para la aplicación, sino que también están validados funcionalmente por muchos usuarios, ofrecen una alta seguridad de diseño. Esto significa que los fabricantes de equipos originales pueden esperar ahorrar entre el 50 y el 90 por ciento de sus costes de NRE cuando utilizan módulos. Gracias al enfoque modular, la aplicación también puede adaptarse a los requisitos: con un simple cambio de módulo, los nuevos tipos de rendimiento se pueden integrar en los diseños de placas base existentes sin ningún esfuerzo adicional de diseño, de modo que los OEM puedan agregar fácilmente estas características innovadoras a la funcionalidad de sus diseños.
COM Express: el estándar líder para módulos de gama alta
El factor de forma principal entre los módulos para esta clase de rendimiento es el estándar COM Express, que ha sido desarrollado durante muchos años por el PICMG y está respaldado por todos los proveedores líderes de sistemas embebidos. Empresas como congatec, que llevan mucho tiempo trabajando estrechamente con AMD, ofrecen módulos basados en el procesador AMD Ryzen Embedded V1000, por ejemplo, en el factor de forma COM Express Basic Type 6, que ofrece capacidad suficiente para cubrir todo el rango de rendimiento de 15 a 54 vatios TDP. Gracias al soporte del hipervisor RTS, el módulo conga-tr4 con soporte en tiempo real también puede soportar plataformas AI
donde los sistemas de deep learning y los gemelos digitales deben conectarse a través de máquinas virtuales para garantizar el procesamiento en tiempo real. Y con sus API estandarizadas, el módulo también está preparado para el intercambio de datos a través de pasarelas IOT de conformidad con el estándar SGET UIC. Esto permite a los clientes OEM concentrarse completamente en el desarrollo de la aplicación; Cualquier lógica de unión faltante se puede desarrollar y proporcionar específicamente a petición del cliente.
Opciones embebidas de diseño de servidor edge de gama alta
Para los OEM que desean llevar sus gemelos digitales y su inteligencia de deep learning a la vanguardia industrial, congatec también ofrece opciones atractivas: Diseños embebidos basados en los nuevos procesadores AMD EPYC ™ Embedded 3000 con disponibilidad a largo plazo de hasta diez años. Con hasta 16 núcleos, rendimiento de 10 Gigabit Ethernet y hasta 64 canales PCIE, los nuevos procesadores de la clase de servidor embebido incluso permiten aplicaciones de deep learning en el edge del IIOT, para que los desarrolladores tengan todo lo que necesitan en el lado del hardware para plataformas de IA basadas en el aprendizaje para uso industrial en tiempo real.