Investigación
Procesos de transformación digital
En la actualidad, pocos dudan de la necesidad de acometer un proceso de transformación para aprovechar las ventajas competitivas que ofrecen las tecnologías digitales en diversos ámbitos de la actividad de las industrias. Sin embargo, existe un amplio consenso sobre la dificultad a la hora de la implementación de estos procesos, ya que las barreras son numerosas. La resistencia al cambio, la (ciber)seguridad o la propia buena marcha del negocio son buenos ejemplos de cuestiones que generan dudas sobre la manera óptima de implementar los procesos de transformación digital.
Es por ello necesario trazar un plan de digitalización adaptado a las particularidades del sector en el que se opere, así como traducirlo en acciones concretas que generen impactos medibles. En esta línea, es de vital importancia poder medir el punto de madurez de las empresas, así como su evolución en el tiempo.
Por estos motivos, desde la Cátedra de Industria Conectada estamos impulsando actividades de investigación dedicadas al estudio de la madurez digital y a soluciones óptimas de transformación. Entre las mismas, podemos englobar el propio estudio que ha dado lugar al informe sobre el estado de madurez digital de la industria española, que puede consultarse íntegramente.
También se ha llevado a cabo un proceso de análisis particular de la madurez digital de los Patronos de la Cátedra, impulsado por Marta Menéndez Botella, alumna del Doble Máster en Ingeniería Industrial e Industria Conectada. Estos análisis ofrecen interesantes resultados e insights que darán lugar a recomendaciones generales en el futuro.
Álvaro López, coordinador de la Cátedra de Industria Conectada, presentó algunos de los resultados de esta línea de investigación en las Jornadas de Impulso a la Innovación y al Desarrollo de la Eficiencia en la Industria 4.0, que tuvieron lugar en la fábrica de Acerinox (Europa), en Los Barrios (Cádiz), en colaboración con la Asociación de Ingenieros Industriales de Andalucía Occidental. Durante las mismas se analizaron las posibilidades que ofrecen la Industria 4.0 y la transformación digital como herramientas necesarias para competir en el sector industrial, así como el periodo de transición que atraviesa el sector industrial respecto a estas cuestiones.
Ciberseguridad
La ciberseguridad es quizás el principal inductor de percepción de riesgo a la hora de conectar activos físicos entre sí y a internet para digitalizarse. De hecho, aparece como una cuestión central a tener en cuenta en la Industria Conectada. Desde la Cátedra, hemos impulsado la definición de un estándar gráfico para la representación de la actividad en sistemas de control industrial (conversión de logs a formato gráfico) que pretende permitir el empleo de técnicas de visión artificial y deep learning para el análisis de la ciberseguridad. A continuación, mostramos un extracto de un informe elaborado por el alumno colaborador en estas cuestiones, Jorge Buil García, del Doble Máster en Ingeniería Industrial y Modelado de Sistemas de Ingeniería durante el curso 2017-2018 en el que se presenta con más detalle esta propuesta:
- Para poder estar protegidos, actualmente se dispone de los llamados Security Operation Centers (SOCs), que se encargan de la supervisión de la seguridad en las operaciones. Dentro de estos, uno de sus principales elementos es el Security Information and Event Management (SIEM), que se encarga de monitorear la red, que engloba a todos los sistemas, en búsqueda de cualquier comportamiento anómalo y peculiar que pudiera ser el indicio de una amenaza. Estos SIEM se encargan de procesar los logs (registros de los eventos de cualquier suceso que ocurra en la red) para extraer las relaciones entre los datos, definir un conjunto de reglas prestablecidas y así sacar niveles de alerta. Estos niveles, junto con la información de los logs procesada, después se enviarían a un conjunto experto de analistas que se encargarían de verificar la información y, en función de eso, establecerían medidas de seguridad
- Los logs se pueden obtener y visualizar mediante diferentes programas. Entre los más conocidos, tanto por su potencial como por ser de código abierto, encontramos el wireshark.
- Hay que tener en cuenta las dificultades que este entorno presenta para cualquier persona que se encargue de revisar y analizarlo. Pero ya no sólo para personas, sino también para las propias técnicas de machine learning, si se quiere trabajar con los datos ya interpretados y no con la codificación en hexadecimal que es como se guarda por defecto. La aparición de todos esos campos, así como la diversidad de los caracteres que los forman, llevan a una situación de alta complejidad.
- Para contribuir a la mejora en este dominio, desde la Cátedra de Industria Conectada hemos trabajado en un estándar gráfico que permitiría el análisis de estos logs, con toda la información ya interpretada, de manera que además de poder ser procesado por analistas pueda ser utilizado en un módulo de machine learning
- Para ello, hemos hecho principalmente hincapié en tres aspectos: 1) que las nuevas imágenes estén formadas a partir de información ya estructurada, 2) que su disposición y su estructura permita un doble enfoque de cara a técnicas de aprendizaje autónomo, tanto por la parte de análisis numérico (las imágenes en definitiva son matrices de píxeles y, por tanto, un conjunto de números), como por la parte de técnicas de deep learning aplicadas al tratamiento de imágenes; y 3) que podamos respetar el máximo de la información ya interpretada dentro de las imágenes para, dado el caso, poder recurrir a ella sin necesidad de retroceder al log original.
- Con nuestra propuesta queremos contribuir a facilitar el trabajo de los analistas a la hora de revisar información estructurada en un formato visual, que se puedan aplicar tecnologías para el análisis de datos y además explorar técnicas de deep learning para el tratamiento de imágenes. Todo esto con el propósito de potenciar la ciberseguridad en esta nueva era de la Industria 4.0.
Analítica avanzada para la mejora de la eficiencia operativaA
A día de hoy, existen pocas dudas sobre el papel central de los datos en el escenario de la digitalización de la industria en particular y de la sociedad en general. Es habitual oír a consultores tecnológicos hacer referencia a ellos como “el petróleo del siglo XXI”, y de hecho muchas empresas empiezan a observar su importancia casi al mismo nivel que el de los propios activos físicos.
Por su transversalidad, ya que afecta tanto a negocios B2B (especialmente) como a B2C, desde la Cátedra hemos impulsado esta línea de investigación orientada a analizar el potencial de mejora de la operación usando la analítica avanzada de los datos disponibles como palanca.
En el marco de esta línea de investigación, entre otras actividades, se desarrolló el Trabajo de Fin de Máster de Ana Carrasco Fonseca, alumna del Máster en Ingeniería Industrial durante el curso 2017-2018. En este trabajo se exploró la posibilidad de predecir fallos en transformadores de distribución en base al histórico de operación de los mismos. A continuación, se muestra un informe realizado por la alumna durante la realización de este proyecto en el que se revisaban cuestiones relacionadas con el mantenimiento de este tipo de equipos.
- Los activos de las empresas envejecen, mientras que los procesos de sustitución de los mismos permanecen limitados tanto por los recursos económicos como por los humanos. Es por esto que uno de los grandes desafíos que se plantean en la actualidad es el desarrollo de un método que asista en la determinación de los activos más críticos, cuya condición precise de tareas de mantenimiento.
- En este sentido, el aumento de la capacidad de almacenamiento y procesamiento de datos de los sistemas actuales ha permitido la monitorización constante de los equipos, lo que ha dado paso a estrategias de mantenimiento predictivo. Estas se basan en la detección de indicadores de fallo de los equipos que sugieren que estos requieren labores de mantenimiento. Para ello, es necesario determinar qué variables físicas influyen en la condición de los equipos. Sin embargo, en muchas ocasiones estas variables no son evidentes, por lo que se precisan nuevas técnicas de análisis de datos, que podrían englobarse en el ámbito del célebre big data.
- A continuación, se detalla el proceso a seguir para elaborar un modelo de mantenimiento predictivo.
- Todo proyecto de análisis de datos comienza con la detección de un problema de negocio que se desea resolver, en este caso la implantación de una estrategia de mantenimiento predictivo a través de la monitorización y análisis de variables representativas del estado y operatividad de los equipos. Una vez definido el problema que se pretende solucionar, se procede a identificar las fuentes de datos y construir la base de datos del proyecto. El siguiente paso es la limpieza de los datos disponibles y la extracción de características relevantes. Esta es una de las fases más importantes del proceso ya que la capacidad real de predicción del modelo depende de la calidad de los datos en que se base. En esta etapa se deben llevar a cabo tareas como la conversión del formato de los datos recogidos a un formato compatible con la herramienta de análisis que se va a utilizar, el manejo de la ausencia de datos y la identificación de valores atípicos que sugieren la presencia de datos erróneos. A continuación, se debe realizar un análisis exploratorio de los datos para alcanzar un mayor entendimiento de las principales características del conjunto de datos que se tiene. Para esto último generalmente se emplean herramientas de visualización. Las técnicas gráficas que se utilizan en esta etapa son, entre otras, histogramas, diagramas de cajas y bigotes, y diagramas de dispersión. Las siguientes etapas son la selección del modelo, su entrenamiento y su validación. En primer lugar, se debe seleccionar el modelo más adecuado para el problema y los datos de los que se dispone. Las diferentes técnicas de predicción se dividen en tres categorías: datadriven (basadas en datos), modeldriven (basadas en un modelo físico) y un híbrido entre ambas. La primera categoría se refiere a aquellas técnicas en las que se monitoriza una serie de datos para ajustar un modelo que describa el comportamiento del sistema. En todo caso, una vez elegido el modelo adecuado, se procede al entrenamiento y la evaluación del mismo. Para ello se divide el conjunto de datos en dos subconjuntos: uno para el entrenamiento del modelo y otro para su validación. Generalmente se utiliza una proporción de tres cuartos de los datos frente a un cuarto, respectivamente. Los tres últimos procesos suelen realizarse de manera reiterativa hasta encontrar un modelo que cumpla los objetivos. Una vez obtenido este modelo, la siguiente y última fase del proceso es la visualización de los resultados, de forma que estos se presenten de manera clara para su fácil interpretación.
Visión artificial
La visión artificial está siendo impulsada de una manera espectacular por los principales laboratorios de investigación en IA a nivel mundial. Sus aplicaciones en otros ámbitos de la sociedad son numerosísimas, pudiéndose notar la importante mejora en el funcionamiento de estos sistemas en los últimos años.
La aplicación de la visión artificial en la industria no es una cuestión reciente. De hecho, se emplea en distintas funcionalidades desde finales del siglo XX. Nos encontramos, no obstante, en el momento en el que se están aplicando las nuevas técnicas y tecnologías desarrolladas para la electrónica de gran consumo a los procesos industriales, y en este proceso están apareciendo, como no podría ser de otra forma, problemas por las particularidades de los procesos industriales.
Por este motivo, desde la Cátedra de Industria Conectada hemos lanzado en el último trimestre de 2018 una línea en la que estamos trabajando en un prototipo de reconocimiento facial. Este sistema tiene aplicación en cuestiones de identificación y seguridad en empresas industriales, y además abre la puerta al desarrollo de otras funcionalidades en el futuro.