El Internet de las Cosas y el límite de los sentidos

Las limitaciones de los seres humanos para transformar los datos en información.

De acuerdo con el psicólogo alemán Hermann Ebbinghaus, mañana solamente recordarás la mitad de lo que escribí para este artículo. La atención y la memoria humana permanecen activas para una tarea a la vez por intervalos de aproximadamente 15 minutos, limitando nuestra capacidad para procesar información y tomar decisiones. Más que criticarle de antemano, debemos reconocer que la pérdida de atención es un rasgo inherentemente humano y no queda más que disculparse. 

Para no ahogarse en datos 

La mayor parte de tableros de información, ya sean impresos o en la pantalla de un ordenador, están diseñados para entregar información que no sobrepase las capacidades humanas, sin embargo, ahora mismo sistemas automatizados recolectan millones de datos de cientos de sensores que con un solo clic deberían saltar a su pantalla.

Nuestra primera opción es la realización de un análisis de cada serie de tiempo de forma intuitiva tratando de reconocer patrones en los datos y detectando la aparición de valores críticos, con suerte algunos datos serán registrados y nos darán una impresión de que algo pudiera no andar del todo bien, luego más profundamente podríamos usar algo de matemáticas y hacer un análisis de estacionalidad y descubrir otros patrones adicionales y lo que marcarían en un futuro cercano.

Sin embargo, uno de los desafíos para la interpretación de datos es tener la capacidad de analizar información a una mayor velocidad de aquella con la que llegan, a través de la reducción de su cantidad y utilizando diferentes métodos como la agrupación mediante histogramas o con promedios a lo largo del tiempo, conocidos como medias móviles, podemos conseguir transformar varios puntos de la serie de tiempo en conjuntos más reducidos, más digeribles por nuestros sentidos, pero esto viene con una consecuencia: la pérdida de detalles que en ocasiones puede ocultar información importante para la toma de decisiones. 

manager-industrial-engineer-using-tablet-check-and-control-automation-robot-arms-machine(1)

La situación puede ser más retadora si en los sistemas monitoreados, y como es usual, queremos analizar varias mediciones de forma simultánea. En estos casos se debe garantizar que tanto las mediciones como sus agrupaciones se encuentran sincronizadas con el objetivo de poder comparar valores entre series, algunas técnicas como las interpolaciones logran estimar valores intermedios entre datos y así modificar la ubicación de los puntos. Como consecuencia del ajuste de múltiples series de tiempo a las posibilidades humanas se producirá la reducción del número de datos y la pérdida de información. En conclusión, es natural sentirse ahogado en un mar de tablas y gráficos cuando no tenemos herramientas para sumergirnos en él o desconcertado al ver una imagen incompleta cuando estas se usan mal. 

La miopía de los datos 

Una vez conseguidas las ansiadas gráficas y bellamente presentadas, llega el proceso de extraer información de ellas. La reducción de información o la falta natural de la misma plantea serios problemas de interpretación frente a los datos disponibles, por ejemplo, ¿si al traspasar un umbral por una pequeñísima fracción el estado del equipo es diferente? Algunas personas muy sujetas a las normas consideran que objetivamente se ha traspasado una barrera, pero desconocen que los datos incorporan errores de medición y procesamiento, es decir existe una probabilidad real de que el umbral no haya sido traspasado, sino que obedezca a un error en el dato analizado, y si este punto es un dato obtenido de una interpolación la probabilidad es aún más alta.  

Las probabilidades son parte del proceso de medición, tan importante como el valor medido es la región dentro de la cual podría estar, conocida como incertidumbre, y es aún más importante cuando existen pronósticos que se derivan de dichas mediciones. La mayoría de las mediciones y pronósticos de la industria se suelen reportar sin valor de incertidumbre dando lugar a supuestos, como los tratados anteriormente, donde se asume que el valor reportado es un valor verdadero y no un valor más probable, siendo con una menor probabilidad que el valor verdadero sea diferente del reportado. La principal herramienta para valorar la incertidumbre es la desviación estándar que puede transformarse en intervalos de confianza o en probabilidad de ocurrencia de un valor. 

Reducir para intensificar 

La reducción de la cantidad de datos no tiene como único propósito hacer los datos digeribles, también pretenden concentrar el significado de la información contenida en un conjunto de datos más pequeño, conocido como información de valor, el conjunto de datos debería llegar a ser la mejor versión reducida de los datos originales dentro de un horizonte de tiempo y para un propósito de análisis bajo los siguientes criterios: 

  • Conservar los valores representativos como valores medios y desviaciones, 
  • Conservar las tendencias visibles y relevantes para el horizonte de tiempo, 
  • Mantener los patrones estacionales o periódicos de acuerdo con el propósito del análisis, 
  • Destacar los eventos de interés para el análisis como discontinuidades y valores extremos. 

El internet de las cosas ha llegado a nuestras industrias y gracias a él hemos resuelto el problema de la captura de los datos y con ellos lograr analizar, planear y gestionar del mantenimiento, pero resta el preprocesamiento, hacer que estos datos sean reducidos y representativos es una tarea delicada y que por lo general es desdeñada, dándonos una falsa sensación de certeza que nos induce a creer que los datos de los activos monitoreados cambian de una forma mucho más suave y lenta de lo que realmente lo hacen.

El afán de hacer un conjunto de datos digerible nos puede llevar a descartar los eventos más interesantes que son por lo general extraños y están fuera del área más probable como valores fuera de rango, cambios abruptos en las señales de entrada o pérdida de patrones cíclicos para reducirlos únicamente a su valor más probable esto es quitarle la sal y la pimienta al conjunto de datos transformándolos en una mezcla homogénea e insípida. 

firma juan

Prepárate para el lanzamiento del nuevo producto de Fracttal, Predictto con el curso: IoT y el mantenimiento predictivo.  Conoce de forma sencilla cada uno de los aspectos básicos de esta nueva era del mantenimiento 4.0 ¡Ingresa aquí!

arrow_back

El Internet de las Cosas y el límite de los sentidos

Las limitaciones de los seres humanos para transformar los datos en información.

De acuerdo con el psicólogo alemán Hermann Ebbinghaus, mañana solamente recordarás la mitad de lo que escribí para este artículo. La atención y la memoria humana permanecen activas para una tarea a la vez por intervalos de aproximadamente 15 minutos, limitando nuestra capacidad para procesar información y tomar decisiones. Más que criticarle de antemano, debemos reconocer que la pérdida de atención es un rasgo inherentemente humano y no queda más que disculparse. 

Para no ahogarse en datos 

La mayor parte de tableros de información, ya sean impresos o en la pantalla de un ordenador, están diseñados para entregar información que no sobrepase las capacidades humanas, sin embargo, ahora mismo sistemas automatizados recolectan millones de datos de cientos de sensores que con un solo clic deberían saltar a su pantalla.

Nuestra primera opción es la realización de un análisis de cada serie de tiempo de forma intuitiva tratando de reconocer patrones en los datos y detectando la aparición de valores críticos, con suerte algunos datos serán registrados y nos darán una impresión de que algo pudiera no andar del todo bien, luego más profundamente podríamos usar algo de matemáticas y hacer un análisis de estacionalidad y descubrir otros patrones adicionales y lo que marcarían en un futuro cercano.

Sin embargo, uno de los desafíos para la interpretación de datos es tener la capacidad de analizar información a una mayor velocidad de aquella con la que llegan, a través de la reducción de su cantidad y utilizando diferentes métodos como la agrupación mediante histogramas o con promedios a lo largo del tiempo, conocidos como medias móviles, podemos conseguir transformar varios puntos de la serie de tiempo en conjuntos más reducidos, más digeribles por nuestros sentidos, pero esto viene con una consecuencia: la pérdida de detalles que en ocasiones puede ocultar información importante para la toma de decisiones. 

manager-industrial-engineer-using-tablet-check-and-control-automation-robot-arms-machine(1)

La situación puede ser más retadora si en los sistemas monitoreados, y como es usual, queremos analizar varias mediciones de forma simultánea. En estos casos se debe garantizar que tanto las mediciones como sus agrupaciones se encuentran sincronizadas con el objetivo de poder comparar valores entre series, algunas técnicas como las interpolaciones logran estimar valores intermedios entre datos y así modificar la ubicación de los puntos. Como consecuencia del ajuste de múltiples series de tiempo a las posibilidades humanas se producirá la reducción del número de datos y la pérdida de información. En conclusión, es natural sentirse ahogado en un mar de tablas y gráficos cuando no tenemos herramientas para sumergirnos en él o desconcertado al ver una imagen incompleta cuando estas se usan mal. 

La miopía de los datos 

Una vez conseguidas las ansiadas gráficas y bellamente presentadas, llega el proceso de extraer información de ellas. La reducción de información o la falta natural de la misma plantea serios problemas de interpretación frente a los datos disponibles, por ejemplo, ¿si al traspasar un umbral por una pequeñísima fracción el estado del equipo es diferente? Algunas personas muy sujetas a las normas consideran que objetivamente se ha traspasado una barrera, pero desconocen que los datos incorporan errores de medición y procesamiento, es decir existe una probabilidad real de que el umbral no haya sido traspasado, sino que obedezca a un error en el dato analizado, y si este punto es un dato obtenido de una interpolación la probabilidad es aún más alta.  

Las probabilidades son parte del proceso de medición, tan importante como el valor medido es la región dentro de la cual podría estar, conocida como incertidumbre, y es aún más importante cuando existen pronósticos que se derivan de dichas mediciones. La mayoría de las mediciones y pronósticos de la industria se suelen reportar sin valor de incertidumbre dando lugar a supuestos, como los tratados anteriormente, donde se asume que el valor reportado es un valor verdadero y no un valor más probable, siendo con una menor probabilidad que el valor verdadero sea diferente del reportado. La principal herramienta para valorar la incertidumbre es la desviación estándar que puede transformarse en intervalos de confianza o en probabilidad de ocurrencia de un valor. 

Reducir para intensificar 

La reducción de la cantidad de datos no tiene como único propósito hacer los datos digeribles, también pretenden concentrar el significado de la información contenida en un conjunto de datos más pequeño, conocido como información de valor, el conjunto de datos debería llegar a ser la mejor versión reducida de los datos originales dentro de un horizonte de tiempo y para un propósito de análisis bajo los siguientes criterios: 

  • Conservar los valores representativos como valores medios y desviaciones, 
  • Conservar las tendencias visibles y relevantes para el horizonte de tiempo, 
  • Mantener los patrones estacionales o periódicos de acuerdo con el propósito del análisis, 
  • Destacar los eventos de interés para el análisis como discontinuidades y valores extremos. 

El internet de las cosas ha llegado a nuestras industrias y gracias a él hemos resuelto el problema de la captura de los datos y con ellos lograr analizar, planear y gestionar del mantenimiento, pero resta el preprocesamiento, hacer que estos datos sean reducidos y representativos es una tarea delicada y que por lo general es desdeñada, dándonos una falsa sensación de certeza que nos induce a creer que los datos de los activos monitoreados cambian de una forma mucho más suave y lenta de lo que realmente lo hacen.

El afán de hacer un conjunto de datos digerible nos puede llevar a descartar los eventos más interesantes que son por lo general extraños y están fuera del área más probable como valores fuera de rango, cambios abruptos en las señales de entrada o pérdida de patrones cíclicos para reducirlos únicamente a su valor más probable esto es quitarle la sal y la pimienta al conjunto de datos transformándolos en una mezcla homogénea e insípida. 

firma juan

Prepárate para el lanzamiento del nuevo producto de Fracttal, Predictto con el curso: IoT y el mantenimiento predictivo.  Conoce de forma sencilla cada uno de los aspectos básicos de esta nueva era del mantenimiento 4.0 ¡Ingresa aquí!