La UCIE (Unidad Científica de Innovación Empresarial)

organigrama UCIE

La Unidad Científica para la Transferencia y difusión de resultados de Digitalización en Procesos Industriales (UCIE) pretende aumentar la transferencia al sector productivo de las capacidades de los investigadores del Instituto de Automática e Informática Industrial (AI2) de la UPV.

La UCIE se plantea como una estructura horizontal de apoyo a los investigadores del instituto AI2 para fomentar la transferencia al sector industrial. Por tanto, dependerá tanto de la subdirección de Investigación como de la Subdirección de Relaciones con Empresas del Instituto. Adicionalmente recibirá apoyo de la Gerencia y del personal de apoyo a la I+D+i del instituto. El organigrama se muestra en la figura.

La UCIE será, entre otras actividades, responsable de todas las acciones de difusión de las capacidades de transferencia del instituto AI2. Para ello, además de las actividades de difusión planificadas, será responsable de la elaboración del catálogo de servicios y capacidades del instituto, así como de la elaboración del plan de comunicación. Las actividades principales de difusión se basan en dos ejes:

  • Jornadas de transferencia AI2: siguiendo el formato de años anteriores, estas jornadas se orientan a presentar los resultados transferibles de los investigadores del AI2.
  • Jornada del Patronato: esta jornada está específicamente pensada para la transferencia del instituto en aquellas áreas estratégicas de las empresas del patronato del AI2.

Se plantean como objetivos estratégicos de la UCIE para 2019-2020 los siguientes:

  1. Incrementar la participación en proyectos colaborativos a nivel nacional e internacional, identificando áreas prioritarias y sectores preferentes para la transferencia de resultados
  2. Actuar desde el Instituto como facilitadores de las actividades de transferencia.
  3. Fortalecer y afianzar el crecimiento en términos de indicadores de resultados, así como las relaciones con las empresas del patronato.
  4. Generar una imagen de marca “Instituto ai2” que genere vinculación tanto a nivel interno como externo

Además, será el responsable de la elaboración de un prototipo que demuestre las capacidades del AI2 en temas de sistemas ciberfísicos para inspección automática utilizando visión artificial. Este demostrador se ha elegido porque expone claramente el perfil multidisciplinar de los investigadores del AI2 en las áreas de automática e Informática Industrial.

Demostradores de visión

Se han desarrollado diversos demostradores con la intención de mostrar tanto las capacidades del instituto como para poder comparar diferentes tecnologías de visión. Estos demostradores se presentaron en las jornadas de transferencia.

Garra con visión

Ver video en Youtube

Este demostrador consiste en una garra diseñada íntegramente en el instituto ai2 montada sobre un robot colaborativo UR5e. La garra esta compuesta por una carcasa sobre la que se montará el resto de componente, una raspberry Pi3 como unidad de cómputo que nos permite el acceso remoto y el control del resto de componentes, el módulo de cámara de 8MP Raspberry v2.1, un sensor de distancia, un cable de conexión al módulo de entradas y salidas de la muñeca del robot conectado a una electroválvula, y un módulo de alimentación PoE para utilizar el mismo cable para la alimentación y la comunicación.

La garra está compuesta por una carcasa que permite la integración de los diferentes componentes, así como los conductos neumáticos integrados en la propia estructura reduciendo espacios y posibles problemas de conexiones.

 

 

El diseño se ha enfocado a un uso colaborativo por lo que se han eliminado las aristas. Los actuadores también se han diseñado en material flexible que evita posibles daños a la garra y al operario frente a colisiones, además gracias a su flexibilidad es capaz de adaptarse a la forma de una gran variedad de productos. Para conseguir estos resultados se ha empleado la fabricación aditiva, también conocida como impresión 3D.

 

Por otro lado, en la programación, se ha realizado en lenguaje C++, empleando librerías de visión como OpenCV, librerías específicas para los sensores como el de distancia y una librería para la comunicación en tiempo real que permite la comunicación con el robot a 500Hz empleando la interfaz RTDE (Real Time Data Exchange) de UR en la serie e.

Las grandes ventajas de este desarrollo son que es un sistema empotrado, que permite la conexión de forma remota y controlar tanto el robot como la visión de forma simultánea. También hay que destacar que la visión está alineada con la herramienta e integrada en el diseño. A todo lo anterior hay que añadir que es un sistema desarrollado íntegramente en el instituto ai2 lo que permite la personalización y adaptación a problemas específicos.

Control de procesos con visión

célula de fabricación de SMC
Célula de fabricación

Este demostrador trata de comparar sobre una célula de fabricación de SMC diferentes técnicas de visión artificial. Para ello se han empleado dos cámaras, una de tipo industrial y emplea un procesado y reconocimiento “clásico”, y otra cámara conectada a un ordenador industrial que emplea redes neuronales para el procesado de imágenes.

pruebas
Resultado de las pruebas

Con este demostrador se comprobó que la cámara industrial “clásica” tiene una gran dependencia de la pieza y el entorno que deben ser estables y estructurados. En cambio, la clasificación empleando redes neuronales ofrece una mayor flexibilidad del entorno y el producto con un coste de tiempo y recursos inicial mayor, principalmente para la toma de imágenes para el entrenamiento.

Con las pruebas realizadas comprobando la presencia y correcta colocación de los tornillos laterales se observó que en un entorno estructurado y estable con una iluminación controlada la cámara con el procesamiento “clásico” podía ser más rápido, pero en cuanto las condiciones de iluminación cambiaban dejaba de detectarse correctamente. En cambio, el sistema que empleaba redes neuronales, al introducir en el entrenamiento diferentes imágenes con distintas iluminaciones, era capaz de detectar los tornillos laterales independientemente de la iluminación

Robótica y visión 3D

Ver video en youtube

En este caso se han realizado dos demostradores en los que se incorpora una cámara de visión 3D RealSense® junto una Raspberry Pi 4 para la visión y su integración con el resto de dispositivos empleando ROS. El sistema de visión se ha entrenado para localizar la posición de agarre con más de mil imágenes y 280 objetos, de esta forma la red neuronal es capaz de detectar la posición de agarre, no solo de los objetos con los que se ha entrenado la red sino también de otros para los que no ha sido entrenada. Este entrenamiento se realizo en hardware especifico como es el servidor de cómputo del que dispone el instituto debido al tiempo necesario que requeriría hacerlo en otro tipo de hardware. El tiempo de entrenamiento en el procesador i7 de un ordenador era de unas 750 horas frente a las 8,3 horas que se tardó en el servidor de cómputo. También se realizo un entrenamiento para reconocer el tipo de objeto que se esta cogiendo, en este caso el tiempo de entrenamiento en el procesador del ordenador eran 450 minutos aproximadamente frente a los 11 minutos en el servidor.

robot móvil RB1, un robot colaborativo UR3e y un actuador antropomórfico

En el primero de ellos se ha utilizado un robot móvil RB1, un robot colaborativo UR3e y un actuador antropomórfico junto al sistema de visión. De esta forma se ha diseñado un sistema capaz de posicionarse en el espacio y posteriormente realizar la operación de agarre.

El ROS master se ejecuta en el controlador del robot RB1 y es la versión ROS Kinetic, para el control del robot UR3e se emplea ROS MoveIt que permite la ejecución de un Nodo RTDE con el que enviar ordenes al robot. Para la visión se utiliza un nodo ROS en la Raspberry Pi 4 que permite la gestión de las imágenes sin saturar el sistema y se procesan en el hardware específico para visión Neural Computer Stick 2, NCS2, de Intel y se optimiza la red con OpenVino. Por último, se desarrolló un nodo en ROS que permite emplear la API en C++ que controla el actuador antropomórfico.

De esta forma se obtiene un sistema independiente y autosuficiente capaz de localizar, identificar y manipular una gran variedad de objetos.

El segundo el sistema es similar al anterior, pero en este caso se ha eliminado el robot móvil y se ha cambiado el robot colaborativo UR3e por un robot Sawyer. El actuador para la manipulación de los productos también se ha cambiado y se utiliza la pinza del propio robot.

En este segundo demostrador se sigue empleando ROS para el control del sistema, pero en este caso el ROS master se encuentra en el controlador del robot Sawyer y se trata de la versión melodic. El control del Robot se realiza con ROS MoveIt como se hizo con el UR3e pero con nodos específicos para el Sawyer.

La cámara 3D es la RealSense® de Intel ® y se controla utilizando los nodos que ofrece para ROS y con una Raspberry Pi 4 para no saturar las comunicaciones con el controlador del robot. En este caso al igual que en el anterior se ha utilizado el optimizador de modelos OpenVino que permite eliminar la información innecesaria y crear modelos optimizados específicamente para cada dispositivo hardware.

Con este demostrador se pretende estudiar la importancia de la utilización de hardware específico y la repercusión económica y de funcionabilidad que ofrece este tipo de hardware. A diferencia del caso anterior donde solo se empleaba un NCS2, en este caso se han utilizado hasta 4 NCS2. El uso de múltiples dispositivos locales permite realizar un procesado periférico, Edge Computing, en lugar de un procesado centralizado, Cloud Computing, manteniendo tiempos de procesado aceptables para la aplicación. Una descentralización del sistema permite una mayor escalabilidad y fácil despliegue al no depender de la unidad de cómputo central ni de las comunicaciones. En las graficas podemos ver como con 4 NCS2 se consiguen frecuencias de procesado aceptables sin necesidad de equipos externos ni servidores específicos que pueden dedicarse a tareas como el entrenamiento donde si que son necesarios.

 

 

La UCIE tiene contratada como técnico responsable de la unidad a Carlos Catalán Gil.

Equipamiento adquirido para el demostrador

Sistema empotrado ByR Servidor de cómputo Impresora 3D Célula de fabricación de SMC
sistema empotrado servidor de computo Impresora 3D Célula de fabricación de SMC
financiado por AVI

 

 

 

 

 

Cómo llegar I  Planos I Contacto
Universitat Politècnica de València © 2015 · Tel. (+34) 96 387 90 00 · informacion@upv.es
campus UPV de excelencia campus UPV de excelencia