Hace sólo poco tiempo atrás vivíamos en un mundo rodeado de todo tipo de dispositivos “inteligentes”. Sin embargo el rápido avance de la tecnología ha acuñado un nuevo concepto para acompañar la denominada 4a Revolución Industrial, hablamos de lo “artificial”. Hoy, el término Inteligencia Artificial (IA) crece con fuerza sobre todo en la industria de los smartphones con sus pequeñas y potentes cámaras y la robótica que automatiza los procesos industriales.
Probablemente no hay mejor manera de describir la IA que ateniéndose a las definiciones que los fundadores de esta disciplina establecieron. John McCarthy fue quien acuñó el término en 1959 diciendo que "(la IA) es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes", mientras que otra descripción altamente aceptada es la de Marvin Minsky, uno de los padres de las ciencias de la computación y co-fundador del laboratorio de IA del MIT "es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran las personas".
Sin embargo, junto a este nuevo termino existe otro que se encuentra fuertemente vinculado a una rama de la Inteligencia Artificial, me refiero a la Visión Artificial o Visión por Computador.
Se puede definir la “Visión Artificial” como un campo de la “Inteligencia Artificial” que, mediante la utilización de las técnicas adecuadas, permite la obtención, procesamiento y análisis de cualquier tipo de información especial obtenida a través de imágenes digitales.
Un buen ejemplo de visión artifcial es la imagen que obtenemos desde una cámara web conectada a un computador, la imagen que obtenemos esta siendo procesada por un “ojo a artificial” en este caso la webcam. Esto nos da la ventaja de poder analizar lo que estamos viendo en escena y es ahí donde los algoritmos de análisis de imágenes por computador toma un papel fundamental.
Hasta hace poco tiempo sólo las grandes empresas podían acceder a estas tecnologías dado su alto costo de implementación tanto en software como en hardware. Sin embargo, con la evolución de la tecnología hoy podemos acceder a máquinas más potentes y más pequeñas a un menor costo. Esto sumado a la incorporación de la comunicación Ethernet dentro de las cámaras, a la vez que en otros elementos del entorno de visión tales como sistemas de iluminación o lentes, hizo dar una vuelta de tuerca adicional a esta tecnología, permitiendo la interrelación con todo el entorno de fabricación, realizando un seguimiento a muchos procesos y sub procesos dentro de la cadena de producción, consolidando a la visión artificial dentro de la IIoT (Industrial Internet of Things).
Los sistemas de visión artificial para la industria se convierten entonces, no sólo en un mecanismo de selección y control de calidad, sino que también pueden controlar y aportar información al entorno de la fabricación. El alto volumen de datos al que puede accederse desde los equipos de visión artificial, se utilizará para además de identificar y marcar productos defectuosos, comprender sus defectos y permitir la intervención rápida y efectiva en el proceso de producción de la fábrica.
¿Pero que hacer con esta gran cantidad de datos producidas en el proceso?
La complejidad de los productos y los procesos de fabricación de la industria, así como el volumen y disparidad de datos que se generan, obligan a avanzar de forma decidida en la aplicación de técnicas de aprendizaje automático (“Machine Learning”) para extraer información que ayude a la toma de decisiones.
¿Machine qué?
Machine Learning es una disciplina científica del ámbito de la Inteligencia Artificial que crea sistemas que aprenden automáticamente. Aprender en este contexto quiere decir identificar patrones complejos en millones de datos. La máquina que realmente aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros. Automáticamente, también en este contexto, implica que estos sistemas se mejoran de forma autónoma con el tiempo, sin intervención humana.
¿Y cómo es posible esto?
Haciendo que repliquen las facultades cognitivas del ser humano, formando modelos que "generalicen" la información que se les presenta para realizar sus predicciones. Y el ingrediente clave en toda esta cuestión son los datos.
¿Por qué es importante?
La cantidad de datos que se generan actualmente en las empresas se está incrementado de forma exponencial. Extraer información valiosa de ellos supone una ventaja competitiva que no se puede menospreciar
Las distintas técnicas de visión artificial combinadas con las de machine learning permite clasificar las ingentes cantidades de información de datos en tiempo real y, por lo tanto, utilizar al máximo el potencial de la industria 4.0. Si entrenamos a las máquinas para que, al igual que los sistemas neuronales, resuelvan problemas complejos como la detección de defectos o la identificación de patrones en tiempo real, las potencialidades del procesamiento digital de imágenes son inmensas.
Pero este gran poder requiere de una inmensa potencia de cálculo para procesar la gran cantidad de datos mediante algoritmos que permiten la paralelización. Pero gracias al avance de la tecnología, la GPU de las unidades de proceso se convirtió en el candidato ideal para realizar esta labor.
¿Qué es la GPU en computador?
Se trata de un componente muy parecido al CPU, sÓlo que el tipo de procesamiento al que se dedica es al de gráficos. De este modo, la GPU puede aligerar la carga de información que debe ser procesada por la unidad central, y esta última puede hacer su trabajo de manera más eficiente
Machine Learning utiliza la alta capacidad de cálculo de las GPU (Unidades de Procesamiento Gráfico) permitiendo realizar el análisis en tiempo real. El gráfico anterior (Fuente NVIDIA) representa el incremento de velocidad al emplear en el procesado una GPU Vs CPU (Unidad de Procesamiento Central).
El procesamiento digital de imágenes es una disciplina que integra diversas áreas de conocimiento como son la informática, la electrónica y la física. Esta disciplina permite el análisis y procesamiento de imágenes digitales mediante el uso de ordenadores, con el fin de extraer información útil de las mismas para llevar a cabo alguna tarea en particular. En la industria, alimentaria por ejemplo se aplica en diferentes sectores de producción (frutos secos y snacks, productos hortofrutícolas, carnes, vinos…) tornándose una herramienta de gran importancia, ya que ayuda a alcanzar objetivos estratégicos en cuanto a la mejora de calidad de los productos, mayor productividad y reducción de costos de producción.
Pero antes de implementar estas maravillas tecnológicas, debemos planificar cual es la mejor forma de integrarlas al interior de nuestras organizaciones.
Para mitigarlo es imprescindible entender que no existe tecnología que resuelva un desafío cultural. Por lo tanto es vital contar con las herramientas precisas para capacitar a los empleados de forma amigable utilizando por ejemplo técnicas de gamificación empresarial para que colaboren, reduciendo así la resistencia al cambio.
La cuarta revolución ya esta en proceso, para reducir el impacto es importante comunicar que el cambio tecnológico no trae como consecuencia la disminución de puestos de trabajos , sino mas bien la re-formulación de los mismos, cambiando los paradigmas sobre las formas de trabajo actual, haciéndolos mas eficientes y permitiendo optimizar los recursos disponibles contribuyendo a un desarrollo más sustentable.