Nuestros artículos imprescindibles

Mostrando entradas con la etiqueta 08.04 - Visión artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta 08.04 - Visión artificial. Mostrar todas las entradas

07 febrero 2010

Procesadores multi-núcleo en nuevas aplicaciones de visión artificial

Los procesadores multi-núcleo han llegado a ser comunes, y los vendedores de software de visión artificial están rediseñando sus productos, permitiendo a los clientes equilibrar la potencia de los multi-procesadores. Sin embargo, la tarea no es trivial ya que el programador debe optimizar la energía de las funciones de procesamiento de imágenes a través de múltiples procesadores. Mientras que el incremento esperado en el rendimiento del microprocesador puede predecirse en cierta medida a partir de la ley de Amdahl, el incremento de rendimiento total será limitado por cualquier parte secuencial del programa que no pueda optimizarse funcionando en paralelo. Típicamente hay dos formas de impulsar el rendimiento de una aplicación de visión de máquinas a nivel del sistema, que se denominan paralelización a nivel de tareas y paralelización a nivel de datos. La paralelización a nivel de tareas es más conveniente en programas con funcionalidad independiente que tienen dependencia de datos o recursos compartidos mínima – tales como los sistemas multi-cámara – mientras que la paralelización a nivel de datos es más conveniente para código que repite varias etapas secuenciales con dependencias de datos entre etapas. Debido a que las aplicaciones de procesado de imágenes tienden a ser serializadas (adquirir, filtrar, extraer, clasificar, salida de datos), la paralelización a nivel de datos es una estrategia popular para impulsar el rendimiento de los procesadores multi-núcleo. En muchos paquetes de software, el número de núcleos puede ser establecido por el integrador del sistema o dejado como una función del sistema de operación. En la paralelización a nivel de tareas, las imágenes se procesan en paralelo sobre una base toma-a-toma dividiendo los datos de la imagen entre los núcleos disponibles. Para hacer esto, el programador tiene que tener en cuenta las costuras entre estas regiones y el hecho de que su tratamiento más apropiado variará con el tipo de algoritmo. Veamos algunos ejemplos de nuevas funciones en la visión artificial actual: Otras funciones disponibles hoy en día son las operaciones lógicas (para enmascarar regiones de imágenes), con las cuales se elimina el ruido de imágenes. Para ello se usan pixels de una o más imágenes de entrada para calcular los valores pixel de una imagen de salida. También podemos mencionar entre las nuevas funciones los denominados filtros morfológicos, filtros de convolución lineales, y umbral dinámico, que opera moviendo una ventana a través de la imagen e entrada. La función de búsqueda de la ocurrencia de un modelo en una imagen es también común en visión artificial- .
Bibliografía: Down to the Core. OptoIQ. May 2009 Palabras clave: Task-level parallelization

16 octubre 2009

Cognex mejora las herramientas de visión artificial para inspección de células solares

Cognex ha expandido su rango de soluciones de inspección para procesos de fabricación de células solares. VisionPro Solar Toolbox incluye herramientas de software pre-configuradas para la mayoría de las aplicaciones de inspección y alineamiento de visión en la producción solar fotovoltaica (PV). Además de Solar Toolbox, los usuarios tienen la opción ya sea de trabajar con la biblioteca de software VisionPro o usar la o usar la herramienta pre-configurada puesta como punto de partida para aplicaciones de alineamiento e inspección. El rango completo de software VisionPro de las herramientas principales de la industria para localización, identificación e inspección pueden incorporarse en la cadena de valor para ayudar a los fabricantes para alcanzar calidad más alta, rendimiento más alto, y mejor control del proceso.
Cognex ofrece un completo rango de productos de visión que ayudan a los fabricantes de equipos a tomar ventaja de la tecnología de visión en cada paso del proceso de fabricación. Las aplicaciones son las siguientes: Software VisionPro – Ideal para suministradores de equipos solares, el software VisionPro de hardware independiente ofrece una alternativa poderosa para los sistemas de inspección estacionarios, y puede usarse con cualquier cámara, frame grabber, o standard digital de conexión directa. Sistemas de visión In-Sight – Sistemas de visión compactos y poderosos que pueden instalarse en líneas de producción existentes para realzar inmediatamente los procesos de inspección de obleas desnudas para verificar ensamblajes del panel solar final. Lectores ID industriales DataMan – Lectores de código de barras de montura fija que permiten manipular obleas a alta velocidad y una completa trazabilidad del proceso oblea-a-panel. Controlador de sensores de visión – Opciones de alto rendimiento y bajo coste para detección de piezas dedicadas o aplicaciones de medición. Inspección de superficies y SmartView – Soluciones para detectar y clasificar defectos superficiales en vidrio solar y sustratos plásticos. Adicionalmente a la inspección, las soluciones ID y alineación para producción fotovoltaica, Cognex también ofrece un amplio rango de productos para producción solar de film, incluyendo soluciones de inspección de superficies y productos ID para trazabilidad a través del proceso de fabricación. La fabricación de células solares eficientes necesita visión de muy alto rendimiento para manejar inspecciones más severas, velocidades de producción más rápidas, y permiten una trazabilidad de oblea-a-panel. Conforme avanza el proceso de producción solar y se automatiza, el uso de visión será una forma crítica de conseguir alcanzar las eficiencias del proceso, mejorar el rendimiento de equipos y controlar los costes de producción.

01 octubre 2009

Últimos avances para diseñar aplicaciones de visión artificial en máquinas

Desde que los procesadores multi-núcleo han hecho su aparición en los mercados, los vendedores de software de visión de máquinas están rediseñando sus productos, y permitiendo que sus clientes se aprovechen de la potencia de los multi-procesadores. Sin embargo, esta tarea no es trivial ya que el programador debe optimizar la energía de las funciones de imagen-procesado a través de múltiples procesadores. Si bien el máximo incremento de rendimiento esperado del multi-procesador puede predecirse en cierta extensión por la ley de Amdahl, el incremento de rendimiento se limitará por cualquier parte secuencial del programa que no pueda ser optimizada para funcionar en paralelo.
Muchas funciones de procesado de imágenes tales como el procesado por puntos u operaciones como la convolución se prestan a sí mismas a la optimización. Sin embargo, otras técnicas – tales como el procesado de imágenes adaptativo – que requiere algún tipo de proceso de toma de decisión y depende profundamente de las condiciones de diversificación no es fácilmente optimizado. Típicamente, hay dos formas de impulsar el rendimiento de las aplicaciones de visión de las máquinas a nivel de sistema, y estas se denominan paralelización a nivel de tarea, paralelización a nivel de datos. La paralelización a nivel de tareas es conveniente para programas con funcionalidad independiente que tienen mínimas dependencias de datos o recursos compartidos –tales como los sistemas multicamara –pero la paralelización a nivel de datos es más conveniente para código que repite varias etapas secuenciales con dependencias de datos entre etapas. Debido a que las aplicaciones de procesado de imágenes tienden a ser serializadas (adquirir, filtrar, extraer, clasificar, generar señales de salida), la paralelización es una estrategia popular para incrementar el rendimiento de los procesadores multi núcleo.
Si bien el código fuente de los multiprocesadores es propiedad del vendedor del software, los programas están divididos en hebras que permiten a los desarrolladores programar aplicaciones que contienen una función para realizar un filtro kernel 3 x 3. Este programa de aplicación permite dividirse en copias dependiendo del número de núcleos de procesador disponibles.
En muchos paquetes de software, el número de núcleos puede ser establecido por el integrador del sistema o dejarse como una función del sistema operativo. Los beneficios de partir el filtro son por ejemplo incrementar en más de dos veces la velocidad cuando los algoritmos se dividen entre los múltiples núcleos.
En paralelización a nivel de tarea, las imágenes se procesan en paralelo sobre una base "toma" a "toma", dividiendo los datos de la imagen uniformemente entre los núcleos disponibles. Haciendo esto, el programador deberá tener en cuenta la unión posterior entre estas regiones y el hecho de que su apropiado tratamiento variará con el equipo de algoritmo.
Funciones tales como las operaciones lógicas o imágenes summing utilizadas para eliminar el ruido de las imágenes usan pixels de una o más imágenes de entrada para calcular el valor de pixel de una imagen de salida. Tales funciones no requieren ningún tratamiento especial y pueden ser optimizadas fácilmente en un método de paralelización a nivel de datos, escalando perfectamente la linealidad con el número de núcleos que trabajan en la imagen. Pero si la imagen tiene un tamaño significativo y excede el cache, estas funciones pueden aún saturar el ancho de banda I/O de memoria con sólo unos pocos núcleos. En estos casos la escalabilidad no es a menudo lineal y el ancho de banda se satura con sólo unos pocos núcleos (1 – 2). Las funciones añadir y copiar son buenos ejemplos de esto. Los algoritmos de convolución no sufren de este problema I/O ya que muchas operaciones se realizan en cada pixel de la fuente antes de obtener el resultado.
Funciones tales como filtros morfológicos, filtros de convolución lineal y umbral dinámico operan moviendo una ventana a través de la imagen de entrada. Cuando se usan técnicas multi-hebras, el programador debe ser consciente de cualquier efecto frontera que pueda ocurrir. Realizando una simple convolución 3 x 3 en una CPU simple, por ejemplo, el programa de aplicación puede necesitar tener en cuenta cualquier artefacto de imagen que se genere en la periferia de la imagen. En el caso más simple, el artefacto puede eliminarse el relleno de los pixels de la imagen en la periferia con el valor promedio de sus vecinos más próximos.
Los algoritmos se relegarán para actuar en un procesador de cuatro núcleos, donde quizás la imagen se no divida en cuatro subsecciones. Entonces, habrá secciones de solapamiento entre las fronteras de pixels entre las sub-imágenes. La aplicación de filtrado original puede necesitar generar hebras para cada procesador y también hebras que deben tener cuidado con los artefactos generados en las condiciones de frontera de la imagen.
Como las operaciones de procesado por puntos, las transformaciones geométricas no sufren penalización sistemática de la paralelización. Cuando se transforma una imagen de entrada, el tamaño de la imagen resultante se calcula y luego la imagen original se transforma en una base por pixel en la imagen fuente usando una transformación inversa.
Se usa un algoritmo de interpolación para acomodar la coordinación fraccional generada después de la transformación inversa. No hay región en la imagen del objetico que se procese más a menudo que lo necesario y la escalabilidad es casi ideal.
Si bien estas operaciones se prestan a ser realizadas en los procesadores multinúcleo donde los datos pueden partirse y dividirse entre procesadores, otras operaciones importantes no pueden llevarse a cabo: Ejemplos prominentes son los análisis de componentes conectados, varias tecnologías de segmentación, algoritmos watershed, acoplamientos basados en correlación cruzada, bordes, o puntos de interés. Para estas aproximaciones deben aplicarse tecnologías más sofisticadas.

Bibliografía: Down to the core. Vision Systems Design. May 2009

Palabras clave: Adaptive image processing, task-level parallelization, data-level parallelization

06 agosto 2009

Tecnología Scanner 3D de bajo coste

La fabricación de objetos a imagen y semejanza de otros es ahora fácil y rápido. Los ingenieros han visto simplificar el diseño gracias a las herramientas de diseño asistido por ordenador. Mediante un escáner podemos copiar un todos los detalles del modelo que deseamos para producir. La tecnología del escáner es uno de los campos emergentes de la ingeniería cuyo crecimiento es más rápido. Con la proliferación de microcontroladores los ingenieros están descubriendo nuevos mejores medios para conseguir escanear con más precisión. Varias nuevas compañías están trabajando en tomar ventaja de las nuevas tecnologías de scanners. NextEngine, es uno de los fabricantes de escáner de bajo precio como de los orientados a reproducir formas orgánicas, o formas altamente no prismáticas que son difíciles de medir con calibres. Con estos escáners pueden diseñarse por ejemplo dispositivos protésicos. Si lo que queremos es capturar formas y relativamente complejas, digitalizarlas y transportar los datos digitales a un centro de mecanizado podemos ir pensando en una inversión superior a 80.000 dólares se utilizamos un escáner de bajo coste. La tecnología convencional y requiere una inversión de más de 100.000 dólares. Pero si la pieza que queremos fabricar es algo más simple tecnologías como NextEngine podemos hacerlo con un scanner de 3.000 dólares. No obstante con uno de estos scanners baratos y necesitaremos de 7 a 9 sesiones de captura de datos. Muchos millones de datos de puntos son almacenados en archivos “stl”, un formato CAD de estereolitografía, Estos resultados pueden exportarse a un formato IGES (International Graphics Exchange Specification), y finalmente transferido a un archivo Mastercam usado por los centros de mecanización para crear las curvas y los contornos. La tecnología de NexEngine se está extendiendo a otras áreas del diseño. Vorum Research Corp., un fabricante de software de prosthesis está integrando la conectividad de NextEngine en su software Canfit. Delcam, un suministrador de software CAD/CAM avanzado, ha firmado una alianza estratégica con NextEngine que implicará su ArtCAM Pro software. Bibliografía: Look to Low-Cost 3-D Scanning. Design News, July 15, 2009

27 mayo 2009

Mejoras en el software de visión de las máquinas

Mejoras en el software de visión de las máquinas La compra de software de visión de máquinas a una tercera parte puede tener mucho sentido a un OEM que no desee desarrollar su propia biblioteca de códigos. Por ello, los paquetes de software standard están aumentando en la oferta de los vendedores. Conforme el hardware de visión de las máquinas se ha ido implantando, hay cada vez más vendedores ofreciendo paquetes standard de terceras partes. Los productos standard se han usado en miles de instalaciones similares y están extensamente probados, por lo que estos paquetes son más fiables que los creados “in-house”. Aún hay más fabricantes de hardware que de software, pero la competencia entre vendedores de software se ha incrementado en términos de herramientas, algoritmos y en soporte de hardware SDK (software development kit). Mejoras en software de visión de máquinas El soporte de visión 3-D está mejorando. En calibración 3-D, por ejemplo, puede ser necesario una medición precisa de la imagen, y eso requiere un modelo de cámara exacto. Las nuevas herramientas permiten también un desarrollo de algoritmos mucho más rápidamente, así como un generación de código más rápida basada en la interacción del usuario con el software. Los usuarios tienen acceso a una biblioteca completa de forma que tienen acceso a una biblioteca completa de forma que pueden escribir su propio código, pero ciertas tareas pueden hacerse más intuitivamente con una interface de usuario gráfica. Los desarrolladores de software están proporcionando más y más herramientas en sus bibliotecas, de forma que los usuarios pueden rápidamente fijar problemas en las aplicaciones que desarrollan. En aplicaciones que se refiere mucho detalle, por ejemplo en inspecciones de semiconductores y células solares, pueden usarse las denominadas line-scan cameras, con una resolución incrementada y campos de visión más grandes. Esto significa imágenes más grandes, que a la vez requieren más memoria, lo cual impulsa la tendencia al uso de software que soportan sistemas operativos de 64-bit. Si hay bastante memoria en el computador de hosting, es posible procesar imágenes de cualquier tamaño. Otra tendencia en auge es el uso de técnicas de inspección infrarrojas, que requieren el uso de sensores de inspección de más calidad. Las cámaras de infrarrojos son más grandes y más caras, porque el sensor tiene que enfriarse considerablemente para reducir el ruido de la imagen. Actualmente, muchas cámaras de infrarrojos operan a temperatura ambiente, facilitando y abaratando el uso en ambientes de fabricación. Otras mejoras Hace unos dos años, AIA (Automated Imaging Association) ratificó dos extensiones del standard Camera Link; la interface PoCL (Power over Camera Link) y la mini-Camera Link connector. Desde entonces, la demanda se ha elevado para estas interfaces, especialmente PoCL. Ambos ayudan a reducir el tamaño del panel de apoyo de las cámaras. Productos introducidos recientemente por Adlink, Dalsa, Euresys, Matrox Imaging, National Instruments, y sensoray, entre otros, incluyen interfaces tales como PoCL o 1394B (FireWire), que toman ventaja del ancho de banda express PCI, incorporan lógica adicional para preprocesado de imágenes, o toman funciones de GigE Vision. Los fabricantes están añadiendo lógica que maneja una gran variedad de tareas de procesado. Conforme se incrementan la transmisión de datos, los datos de imágenes se procesan más rápidamente. También se incorporan funciones de preprocesado que ayudan a corregir problemas óptimos como las distorsiones, correcciones de campo plano para sensibilidad uniforme, sustitución de pixel muerto, etc. Algunos fabricantes como National Instruments ofrecen la opción de usar FPGAs para control del tiempo, disparo, el I/O. El FPGA puede también utilizarse para sincronizar múltiples cámaras, iluminaciones, o hardware de control como actuadores con tiemposprecisos. Fuente: tmworld

20 abril 2009

Software para el desarrollo de aplicaciones de visión artificial

Cognex ha liberado una parte de su famoso software VisioPro, el programa de visión artificial más utilizado del mundo. El software puede descargarse con su robusta biblioteca de herramientas – independientemente de la cámara o tarjeta capturadora que se use. La biblioteca de VisionPro se ha usado en más de 400.000 instalaciones en todo el mundo, para localización, inspección, medición e identificación de objetos geométricos. Estamos por tanto ante un buen sitio para comenzar el estudio de aplicaciones individuales. Combinado con un despliegue basado en PC poderoso y flexible, VisionPro hace más rápido que nunca crear y desplegar soluciones para las aplicaciones de visión de máquinas más desafiantes. VisionPro puede descargarse también en una versión de 30 días completamente operativa que facilita el estudio de aplicaciones individuales, configurar la adquisición de datos, optimizar las herramientas de visión, transmitir datos dentro de la factoría, y crear interfaces de operador. Y lo mejor de todo es que no se requiere programación. La biblioteca de herramientas Las herramientas tienen la inteligencia de ignorar variaciones no críticas en apariencia mientras que se centran en las características críticas que determinan la aceptabilidad del producto. Power Tools no requieren un extensivo pre-procesamiento de imágenes para alcanzar la resolución final, añadir un despliegue de aplicaciones más rápido para el ingeniero de visión y disminuir los costes del ciclo de la vida. Palabras clave: Frame grabber

12 abril 2009

Avances en la tecnología de sensores de visión

En los vehículos, los sensores de visión están mejorando la seguridad proporcionando datos críticos al conductor sobre diferentes sistemas de automoción. Ya que las capacidades de los sensores mejoran y los precios de estos sistemas bajan, cada vez más vehículos se equipan con sensores de visión para prevenir o reaccionar ante los accidentes. Los tipos de sensores que se están suministrando por los suministradores de equipamiento electrónico pueden estar cambiando de dispositivos CCD (charge coupled devices) a diseños basados en CMOS. STMicroelectrónics recientemente ha introducido el VL5510, una tecnología de imagen CMS para sistemas de asistencia al conductor basados en tecnología de imagen CMOS para sistemas de asistencia al conductor basados en CMOS. Entre los atributos especiales para las aplicaciones de automoción destacamos la alta sensibilidad de 7.14 V/lux, corriente oscura baja de 33aA/pixel a 25 ºC y alta Quantum Efficiency (QE) en la región próxima al infrarrojo. En contraste con las aplicaciones de automoción de alto volumen que demandan los precios que está dispuesto a pagar el consumidor, las aplicaciones de visión en fabricación no son tan grandes. Si embargo, estas aplicaciones continúan requiriendo rendimiento y precisión que impulse el nuevo desarrollo de producto. Otro producto novedoso en el mundo de los sensores de visión es Matrox Imaging, diseñado por Matrox Iris GT. Se trata d ela siguiente generación de cámaras para aplicaciones de visión de máquinas. Las smarts vienen con un procesador Intel 1.6 GHz Atom, que funciona con Windows CE 6.0. La configuración del sensor incluye un CCD monocromo de 640x480 pixels a 110ftp 1/3“
Más información aquí

18 diciembre 2008

La tecnología CMOS se mueve hacia la siguiente generación

En el pasado, los dispositivos acoplados de carga (CCD) y los sensores semiconductores de óxido metálico complementario (CMOS) se han utilizado en diferentes áreas. Los sensores CCD se usaron en aplicaciones donde se requería una excepcional imagen pero eran aceptables velocidades más bajas. CMOS, por el contrario, fueron reconocidos por su rápida velocidad, pero su calidad de imagen era inferior. Los CMOS más recientes combinan una excelente velocidad con excelente calidad de imagen, y rápidamente se están popularizando en aplicaciones de visión de máquinas tanto line-scan como area-scan . Tecnología de sensores CCD y CMOS La historia de la imagen digital comienza en los 70, con el desarrollo de los CCDs. En su etapa inicial no eran más que dispositivos de almacenamiento de datos, pero rápidamente se reconoció que sus componentes eran sensibles a la luz y producían una señal proporcional a la cantidad de luz aplicada. El principio básico de la tecnología CCD es una serie de registradores de transferencia al lado de la superficie sensible a la luz de los pixels del CCD. Los registradores de transferencia transportan cargas desde los pixels a los registradores de cambio bajo el sensor. Los pixels de CCD pueden tener ahora un factor de relleno del 100 %, lo cual quiere decir que casi todos los pixels son sensibles a la luz. CCDs proporcionan un nivel de ruido relativamente bajo, lo cual hace que la calidad de imagen sea muy buena. La tecnología avanza rápidamente y ello hace que este tecnología se use cada vez más en cámaras digitales, astronomía, visión de máquinas, video cámaras, máquinas de fax y en muchas otras aplicaciones. Los sistemas CMOS se caracterizan por tener parte del sistema de lectura y el control de iluminación directamente adyacente a la superficie fotosensible. Una ventaja fundamental de este diseño es que cada píxel puede ser controlado y leído directamente. Una desventaja es que una parte de cada píxel es ocupada por componentes electrónicos, que reducen el factor de relleno. La tecnología CMOS permite que una gran variedad tanto de funciones digitales como analógicas sean integradas directamente en el sensor. Esto significa que los datos analógicos pueden ser amplificados y convertidos en una señal digital directamente en el chip. También pueden integrarse los pasos del preprocesado, memoria y generación temporal. El papel de la velocidad En la última década, la presión por incrementar el rendimiento de los sistemas de producción industriales ha crecido de forma continuada. Esto requiere una velocidad de adquisición más rápida en los productos de visión digital, y la demanda futura parece seguirá por el mismo camino. La velocidad es importante especialmente en las cámaras line-scan, ya que con estos equipos se realizan en continuo en procesos en los que la velocidad es esencial. Mejoras en la tecnología de los sensores Hasta fechas recientes, la mayoría de las cámaras line-scan se han equipado con sensores de imagen CCD. En aplicaciones más lentas, los sensores CCD producen una excelente calidad de imagen, pero cuando operan a altas velocidades se enfrentan a limitaciones físicas. En aplicaciones de alta velocidad, los circuitos de transmisión de un sensor CCD debe trabajar a alta frecuencia respecto a al alta carga capacitiva de los registradores de cambio CCD. Esto origina el calentamiento del sensor y la electrónica de la cámara, y consume bastante energía. Para manejar la alta velocidad, los sensores CCD necesitan equipamiento adicional formado por amplificadores y convertidores analógicos digitales (ADCs). Esto origina que los diseños de la cámara CCD sean caros y grandes en tamaño. Se necesita una nueva aproximación conceptual para los sensores de imágenes line-scan para superar estas limitaciones. Hasta los años 90, la tecnología CMOS sufrió de una resolución litográfica baja y ausencia de procesos de fabricación optimizados para los sensores de imagen. Con la llegada de los sensores de píxel activos CMOS-APS, los sensores fueron virtualmente reinventados. A partir de ese momento, los sensores CMOS-APS comenzaron a ser elegidos como la primera elección en aplicaciones de imagen area-scan de alta velocidad. Los sensores CMOS modernos no solo muestran un rendimiento superior no sólo exhiben rendimiento superior en velocidad. Pero son más atractivos en el precio que los sensores CCD debido a los costes de producción más bajos. La última generación del sensor CMOS también exhibe excelente calidad de imagen, que suele ser una fortaleza exclusiva del sector CCD. Debido a las mejoras en la tecnología de fabricación de chips, los sensores CMOS recientemente desarrollados tienen unas excelentes características de homogeneidad y ruido. Los atributos positivos de la tecnología CCD se han transferido paso a paso en los procesos de fabricación de sensores de imagen CMOS. Los resultados obtenidos son que los sensores CMOS de hoy combinan la ventaja de ambas tecnologías: la amplia variedad de las características de los circuitos CMOS y la calidad de imagen superior de la tecnología CCD. La tecnología CMOS ofrece la posibilidad de combinar los fotodiodos de un sensor con otros circuitos CMOS on-chip, lo cual no es posible con los sensores CCD. Ésta es una ventaja principal comparada con la tecnología CCDs. Bibliografía: CMOS technology moves to the next generation. Optics & laser Europe. November 2008 Palabras clave: Charge coupled devices (CCD), Complementary metal oxide semiconductor sensor (CMOS), digital-vision products, active pixel sensor (CMOS-APS)

26 octubre 2008

La visión artificial para clasificar patatas

Tradicionalmente, las patatas se han clasificado por tamaños de una forma muy simple. Se recogían con una pala cargadora y se cribaban por gravedad. Las pequeñas pasaban a través de los huecos y las grandes no. Este método, utilizado con variantes en el procesado de muchos productos agrícolas, tiene un problema, y es que las patatas a menudo se quedan pegadas en los huecos por lo que disminuye la productividad del proceso. Además, en los huecos son fácilmente aplastadas.
Los nuevos hábitos alimenticios de hoy cada vez exigen más la disponibilidad de patatas clasificadas por tamaños, lo cual permiten su utilización en la elaboración de productos más sofisticados y uniformes. La industria alimentaria está constantemente incrementando la demanda de patatas clasificadas por tamaños.
Para acceder a segmentos de mercados más exigentes, una compañía en el sudeste de Suecia, AB AGEC at Höör, ha desarrollado un equipo de clasificación de patatas de alta velocidad y precisión. Una sola máquina puede clasificar más de diez toneladas de patatas en tan solo una hora. Esta compañía tiene entre sus productos varios equipos destinados a automatizar la separación de distintos productos y agentes extraños que pueden estar mezclados con los alimentos.
Mostramos aquí este equipo porque dada su sencillez nos ayudará a desmitificar la visión artificial y esperamos sirva para estimular a otros fabricantes de máquinas a integrar esta tecnología en sus equipos.
El equipo se basa en un principio básico: Las patatas llegan por una cinta transportadora de 50 cm de anchura desde la cual van cayendo de forma continuada. En su caída, cada patata es medida con una cámara inteligente equipada con el sensor de visión inteligente LAPP1110, que instantáneamente calcula su tamaño y decide si cada patata es pequeña, mediana o grande.
Las patatas caen 8-10 cm y un dedo selector neumático las guía a la tolva correcta. En el corto espacio de tiempo en el que las patatas están cayendo, el sector de visión tiene tiempo para computar su tamaño y posición y transmitir esta información a un computador de control que seguidamente envía un pulso al dedo neumático que maneja la operación del sistema de clasificación final.
El sistema, con sensor LAPP opera respecto a la iluminación del fondo, por lo cual importante haya buen contraste. Cuando las patatas caen frente al sensor, bloquean la iluminación del fondo, lo cual genera buen contraste. El sensor de visión inteligente puede distinguir cada patata como un objeto. Su procesador de imágenes integrado distingue cada patata como un objeto. Su procesador de imágenes se programa para computar el diámetro de la patata. Aunque el sensor sólo mide la patata en dos dimensiones, con esta información puede ya clasificarse de forma recisa.
Entre las grandes ventajas de esta tecnología, que por cierto es de bajo coste, merece la pena reseñar la gran cantidad de producto que puede procesarse por unidad de tiempo, utilizando solamente una máquina. Esta tecnología puede extenderse fácilmente a múltiples aplicaciones de selección de productos agrícolas, con lo que conseguiremos un importante incremento en la productividad de la planta. En situaciones más complejas, como el procesado multiproducto, es factible también utilizar visión artificial, y disminuir de esta forma los costes de manipulación manual. El sistema de clasificación puede también extenderse a múltiples procesos industriales en los que se clasifiquen alimentos de cualquier tipo, entre otras cosas.

Palabras clave: Smart Vision Sensor

25 octubre 2008

Como aplicar la visión artificial en un entorno industrial

Al iniciar este blog hace unos meses, ya realizamos una breve introducción a la visión artificial, e incluso hemos dado a esta tecnología una categoría específica dentro del mismo. En esta ocasión, continuamos introduciendo a esta tecnología, pero vamos a abordar la puesta en práctica de su aplicación en una factoría. Trataremos como siempre de hacerlo de una forma sencilla para que la exposición sea útil a los no iniciados.

INTRODUCCIÓN

Los sensores de visión, usados para automatizar inspecciones visuales complejas suelen verse como algo difícil de implementar, y esta es una idea que hay que desmitificar. Vamos a estudiar en este artículo y nos daremos cuenta de que realmente no es complicado.

PARTES DEL SISTEMA DE VISIÓN

Los productos de visión artificial comprenden dos elementos principales:

  • Elemento hardware: Cámara, controlador, etcétera.
  • Elemento software: Sistema de imagen, algoritmo de procesado de imágenes e interface de usuario

ADQUISICIÓN DE DATOS Y ANÁLISIS

Un sensor de visión trabaja llevando a cabo una inspección y realizando una serie de operaciones. En primer lugar capta datos mediante una cámara, las analiza en un microprocesador, y toma decisiones basándose en el análisis. Consecuentemente, las partes del proceso de inspección son las siguientes:

A) Adquisición de una imagen. Una vez se ha identificado la característica de interés, el proceso de adquisición consiste en los siguientes pasos.

  1. Ajuste del contraste: El FOI debe estar iluminado para conseguir el máximo contraste. El contraste óptico es la relación entre la cantidad de luz que cae en el receptor en la condición de luz sobre la que se realiza la adquisición de datos, y la condición de oscuridad. Cuanto mayor sea el contraste entre el objeto que vamos a estudiar y el entorno, más fácilmente mediremos la señal de visión.
  2. Montaje a la distancia de trabajo correcta: El sensor debe montarse a la distancia de trabajo adecuada para establecer el campo de visión que maximice la resolución de la imagen. La distancia de trabajo es la distancia desde la cámara al objeto de inspección, el campo de visión es el área del espacio del objeto captada en el plano focal de la cámara y la resolución es el cambio detectable más pequeño en la posición o tamaño de un objeto.
  3. La fuente de luz interacciona con el elemento inspeccionado y el fondo. La luz es absorbida, reflejada o transmitida.
  4. La luz pasa a través de las lentes a un imager-chip bidimensional. El chip es el sensor de visión que reemplaza la a película en un sistema de cámara digital. Los dos tipos más conocidos, también conocidos como sensores de imágenes, son CCD y CMOS. El chip captura la imagen en un valor en escala de grises por cada pixel de la imagen. En computación una escala de grises es una escala empleada en las imagen digital en las que el valor de cada pixel posee un valor equivalente a una graduación de gris. Las imágenes representadas de este tipo están compuestas de sombras de grises, que van desde el negro más profundo variando gradualmente en intensidad de grises hasta llegar al blanco.

B) Análisis de una imagen. Para el análisis de la imagen se utiliza un software que extra las características y las analiza de acuerdo con unas tolerancias determinadas por el usuario. Esto incluye contar, localizar, verificar, medir, e identificar objetos en la imagen. Este análisis se conoce también como conducir una inspección. En la inspección, las imágenes de los productos se comparan a una imagen de referencia en orden de encontrar diferencias medibles y repetibles entre buenos y malos productos.

C) Determinación: Finalmente, durante la fase de determinación, el software determina si una inspección ha pasado o ha fallado, de acuerdo con los criterios predeterminados. El sensor luego va mostrando los resultados en una máquina. En esta fase, el sensor de visión utiliza la referencia que se le ha enseñado previamente para comparar cada muestra con la tolerancia programada. La inspección se pasa si todas las muestras están dentro de las tolerancias mínimas y máximas. La operación de la determinación tiene lugar dentro del microprocesador del sensor de visión. Las herramientas de comunicación y análisis utilizadas en esta fase se configuran mediante software GUI (interface gráfica de usuario). Los resultados son comunicados a la línea de fabricación utilizando una salida discreta, una conexión serie o a través de un puerto Ethernet.

  1. Herramientas de determinación: Estas herramientas de software se usan para hacer la determinación de datos y comunicación de datos. Tenemos dos tipos: a) Herramientas de análisis: Usan la información analizada por las herramientas de visión para crear mediciones de distancia, tamaño y recuento y tolerancia de resultado. B) Herramientas de comunicación. Estas herramientas exportan los resultados de la inspección a un dispositivo externo. Los resultado del análisis realizado por las herramientas de visión pueden seleccionarse y exportarse vía el canal serie del sensor o a través de Ethernet.
  2. Herramientas de análisis: Calculan la distancia entre dos puntos encontrados con previas herramientas de visión. Miden por ejemplo la posición de una etiqueta.
  3. Herramientas de ensayo: Estas herramientas se utilizan para establecer tolerancias y resultados en las herramientas de visión y análisis y activar salidas discretas.
  4. Herramientas de comunicación: Las herramientas de comunicación se usan para exportar datos desde el sensor de visión a un dispositivo externo, incluyendo los resultados de las herramientas de visión. El sensor exportará los datos sobre Ethernet o un canal serie. Algunos ejemplos son: tiempos de ejecución, contar, valores de entrada y salida, referencia punto a borde y distancia de rotación, valores promedios en escala de gris, anchura máxima y mínima de un objeto.
  5. Uso de más de una herramienta de comunicación: Una inspección puede requerir el uso de más de una herramienta de comunicación, en cuyo caso se denomina herramienta de comunicación múltiple. En este caso, las herramientas: separan datos y exportan a dispositivos externos únicos, especifican la orden de los datos exportados, exportan datos de herramientas de visión en diferentes momentos durante la inspección. Especifican los caracteres de control de "series de activación" a dispositivos externos únicos.
  6. Configuración de la herramienta de comunicación: Las herramientas de comunicación se configuran en tres pasos: a) Seleccionar las herramientas de visión y sus resultados para exportar, B) seleccionar las conexiones de comunicación para datos de exportación y 3) transformar la serie de datos de activación a caracteres ASCII.
  7. Resultados: Los resultados de un sensor de visión son configurables por el usuario. Puede enviarse la salida a cualquier punto de la factoría para permitir pasar, impedirlo, o dar un aviso, entre otras condiciones.

Bibliografía: Banner

Palabras clave: to automate complex visual inspection, feature of interest (FOI), imager chip, vision sensing, GUI Software

22 junio 2008

La visión tridimensional de las máquinas

Los fabricantes de tecnologías de sistemas de visión se encuentran con que el desarrollo de la industria de semiconductores, y especialmente la miniaturización de componentes, les está exigiendo el desarrollo de sistemas con una capacidad de visión mucho más minuciosa, que ofrezca unos niveles de exactitud superiores. Otra cuestión a destacar en el desarrollo de nuevos sistemas de visión es conseguir reducir los gastos que lleva aparejado este tipo de instalaciones. Características que faciliten la utilización del sistema por el usuario, capacidades de integración robustas, y reducción del tiempo de formación necesario para su utilización son cuestiones que facilitarán decidir una inversión en sistemas de visión. Las cámaras smart están reemplazando los sistemas de visión basados en PC, y la decisión sobre la arquitectura del sistema dependerá de la aplicación a la que el sistema de visión esté destinado. La creciente necesidad de incrementar los procesos de producción es una de las cuestiones claves en el desarrollo de tecnologías innovadoras de visión. En ese sentido, Basler Vision Technologies, de Alemania, uno de los líderes en la fabricación de equipos de inspección de medio óptico basados en visión, ha desarrollado un sistema de medición basado en láser. Este sistema es considerado un medio óptico de tercera generación, el disco de rayo azul requiere una elevada uniformidad y exactitud, por lo que se considera un auténtico desafío. Los scanner de Basler realzan el efecto óptico de la deformación y pueden localizar defectos con muy poca información. Por último, mencionar que las aplicaciones de visión de las máquinas están evolucionando de imágenes bidimensionales (2D) a técnicas tales como la triangulación láser y estereovisión. Los sistemas de visión basados en chip 3D están emergiendo como alternativas efectivas en coste en algunas aplicaciones, como la automoción.
Bibliografía: Three-dimensional machine visión is starting to emerge as manufacturers want superior accuracy. Design news. April 2006

16 mayo 2008

Reconocimiento inteligente de documentos

La visión artificial y todas sus aplicaciones es una de las tendencias más interesantes que permiten aumentar la productividad de los procesos industriales. En este post, comentamos un nuevo proyecto de los investigadores de PARC en esta área. Los trabajos llevados por los investigadores está dirigido a ir más allá del reconocimiento convencional de documentos. La idea consiste en profundizar en el reconocimiento visual de figuras, tablas, diagramas, anotaciones, etc, incluidas en los documentos. El objetivo es inspeccionar documentos de una forma mucho más exhaustiva de lo que permiten las técnicas convencionales de inspección, y para ello el análisis de documentos se extiende utilizando técnicas de visión computerizadas, que permitan reconocer y clasificar los documentos en función de su contenido. Las nuevas técnicas pueden incorporarse a scanners para actuar sobre documentos en papel o trabajar con documentos ya digitalizados. El sistema permite la clasificación automática de documentos, el marcado de textos o gráficos, y la extracción de texto. Las ventajas que ello conlleva son innegables en muchas operaciones que exigen el reconocimiento manual de muchos documentos. Un editor de imágenes de documentos a modo de prototipo es Scan Scribe, que facilita la extracción, manipulación, y combinación de trazos o notas escritas a mano en un documento. Se mejoran sensiblemente las posibilidades de otros editores como MS Word o los gráficos estructurados, por ejemplo de PowerPoint. El editor dispone además de herramientas de edición inteligentes que facilitan de manera fácil interactuar con el documento.
Puedes descargar Scan Scribe aquí.
Palabras clave: Intelligent image recognition

21 abril 2008

Visión artificial en líneas de embalaje

En este post hablamos de una de las aplicaciones más interesantes de la visión artificial, la inspección de los procesos de embalaje. Para ello comentamos el artículo “Lights, camera, packaging productivity” publicado en el número de marzo de 2008. Hoy que el petróleo ha superado la barrera de los 117 dólares es buen momento para plantearse mejorar la eficiencia mediante actuaciones de automatización. En los años 80, la llegada de los sistemas de visión fue acogida en la industria con gran entusiasmo, particularmente en el sector de automoción. Pero en poco tiempo, las dificultades para operar y mantener estos sistemas hicieron que el entusiasmo languideciese. Afortunadamente, las cosas han cambiado. Cada aspecto de esta tecnología ha mejorado estos años. Comenzando con las cámaras, ahora están disponibles cámaras de estado sólido efectivas en coste. Las nuevas cámaras proporcionan la más alta resolución que puede necesitarse en cualquier cosa que pueda detectarse. La gran capacidad de conectividad de estas cámaras digitales hace que pueda conectarse fácilmente un ordenador personal a un sistema de visión de máquina. Si es necesario, están disponibles tarjetas de captura de video para incorporarlas al PC y asegurar que pueden llevarse a cabo la práctica totalidad de tareas de procesado de imágenes. DESMITIFICANDO LA ILUMINACIÓN La iluminación, un problema en muchas aplicaciones de visión, también ha sido simplificada. Antiguamente, la puesta preparación de una aplicación, con la instalación física de la cámara, iluminación, y piezas a inspeccionar, era generalmente un trabajo que consumía mucho tiempo. Y una vez que el sistema estaba en operación, cambios en las condiciones ambientales o atmosféricas dentro de la planta debían ser cuidadosamente calibradas. Actualmente, los nuevos algoritmos de software permiten manejarse en diferentes condiciones de ilumiación. En los procesos de embalaje, la demanda de la industria por procesar productos cada vez más pequeños ha hecho evolucionar a la visión artificial en tecnologías cada vez menos costosas. NUEVAS OBLIGACIONES LEGALES Diversa normativa viene aprobándose para mejorar las garantías de los productos y evitar actos terroristas. Las cadenas de proceso de alimentos deben tener capacidad de trazabilidad de las fuentes paso a paso. Los sensores y sistemas de visión artificial no tienen precio de cara a garantizar la trazabilidad de grandes lotes de productos. Verificar que la etiqueta es correcta, que los niveles de llenado son adecuados, y que los líquidos no tienen sustancias extrañas. Pueden realizarse muchas acciones que un lector de códigos de barra laser nunca puede efectuar. Incluso en términos de lectura de códigos de barra, la visión artificial presenta grandes ventajas: Los códigos de barra se leen muy fácilmente con sistemas de visión, mientras que con lectores de código de barra es mucho más laborioso configurar para realizar la misma tarea. El crecimiento de la visión artificial en el embalaje se debe a la necesidad de disponer de un sistema de visión en continuo. SENSORES DE VISIÓN En los procesos de embalaje, los sensores de visión están siendo usados cada vez más frecuentemente para sustituir a los sensores fotoeléctricos, que durante décadas se han usado con éxito en las líneas de embalaje. El problema es que están limitados a un simple haz de luz y no tienen capacidad de computación. Los sensores de visión, con su capacidad para capturar y analizar imágenes multipixel, están preparados para llevar a cabo una amplia gama de operaciones de inspección, consiguiendo mayores niveles de calidad y trazabilidad. Los sensores de visión se van encareciendo conforme aumenta la velocidad de la línea y el número de operaciones que solicitamos. No obstante, si la luminosidad es buena decrece el tiempo de exposición y la velocidad no es tan limitante. También están disponibles sensores de visión que pueden resistir incluso la inmersión, por ejemplo el IP67 de Sick Inc., lo que permite trabajar en líneas de proceso con abundante agua. CÁMARAS CON SMARTS Las cámaras con smart son el paso siguiente en los productos de visión en continuo. Todo el proceso e iluminación lo hace la misma unidad. Es por ello que estos productos se usan cada vez con más frecuencia. Estas cámaras están ya disponibles con diferentes propiedades que se utilizan en aplicaciones con uso computerizado intensivo. Las cámaras en 3D son la última tendencia, ya que pueden proporcionar a los usuarios valiosos datos de peso o volumen.

18 abril 2008

Nuevas oportunidades de la visión artificial en máquinas

Dos artículos hemos leído recientemente sobre la cada vez más utilizada tecnología de la visión artificial. El primero, publicado en engineerlive, y el segundo publicado en Design Engineer, en su número de abril de 2008. En ambos se habla de los nuevos avances de esta tecnología, los cuales sintetizamos en este post. Hace veinte años, revelar un carrete de diapositivas costaba mil pesetas, y el propio carrete otras mil. Pero desde 2003, la introducción de las cámaras digitales en el mundo amateur ha supuesto que la fotografía se popularice a niveles impensables. También han llegado recientemente los teléfonos móviles con cámaras integradas, algo impensable hace muy poco tiempo. Estos avances en el mundo de la imagen nos pueden dar una idea de los que paralelamente han tenido lugar en el mundo de la visión artificial; que nos hacen plantearnos por qué esta tecnología tan amiga de la productividad, no está todavía omnipresente en la industria. Sólo hay una respuesta: carencias en ingeniería aplicada a los procesos de fabricación. La visión artificial se emplea, y puede emplearse, en una gran variedad de ambientes fabriles; y su utilidad es la inspección, la captura de datos y las tareas de control de procesos. La visión artificial trabaja de manera permanente, manda los datos a las unidades de almacenamiento; permite su procesado con software; y facilita la obtención de todo tipo de informes que nos ayudarán a saber en qué puntos de la fábrica estamos perdiendo capacidad de producción. También se han popularizado las cámaras “Smart”, las cuales incorporan un sencillo hardware y software para procesar imágenes y permiten que la cámara sea utilizada como sensor, con una señal de salida que puede ser utilizada como entrada en un PLC, un PAC, un monitor basado en PC, o un sistema de control. Como está ocurriendo en todos los campos de la tecnología, los fabricantes compiten por ofrecernos productos de gran funcionalidad, a bajo coste, y que no comprometan la fiabilidad. Son muchas las compañías que comercializan cámaras smart, y al respecto mencionamos a NI, referente en captura de datos, por sus dos nuevos productos: Las cámaras smart de National Instruments NI 1722 y NI 1742 combinan una imagen de un sensor con un controlador industrial y el software de visión de NI. Ello hace a estos equipos muy útiles para localizar e inspeccionar partes y ensamblajes, así como para leer códigos de barra 1D o 2D, tales como las matrices de datos. Lo más destacable de este equipamiento es que siguiendo otras tendencias de NI, es posible incorporar un sistema de visión artificial sin programación alguna, algo realmente interesante para los que odiamos el lenguaje en código. Usando este software intuitivo los ingenieros pueden construir complejas aplicaciones de visión de máquinas incorporando no sólo algoritmos de visión sino también ejecución basada en el estado con bucles y ramificaciones. Para aplicaciones más avanzadas, las cámaras también se integran con el software labview (intuitivo y fácil de usar) y con la completa biblioteca de procesado de imágenes de NI, y algoritmos de visión de máquina como la detección de bordes, pattern machine (mecanismo de comparación de patrones), lectura de código y el reconocimiento de caracteres ópticos (OCR). Ambas cámaras pueden usarse en ambientes industriales duros.
A) VISIÓN DE ROBOTS
Ya hemos introducido en el blog las aplicaciones robotizadas, y seguiremos hablando en profundidad de ello, pero en esta ocasión hablaremos de un campo que está recibiendo especial atención en los últimos tiempos: Los robots guiados por visión artificial están encontrando un amplio espectro de aplicaciones por explorar, ya que los hace menos dependiente de unas condiciones ambientales definidas y posibilita el uso de herramientas y componentes con los que interactuar. Si bien tales soluciones requieren cámaras con especificaciones muy adaptadas a la aplicación, la diferencia la marca realmente el software. Varios fabricantes están trabajando en un proyecto de desarrollo de aplicaciones de visión robotizadas: Stemmer Imaging, Kuka y Swiss Interstaaliche Hochschule für Technik. El software actúa directamente en el controlador del robot Kuka de manera que, en sólo unos pocos pasos y sin necesidad de programar, los usuarios pueden confirugar el sistema, unir el robot y el procesador de imágenes y enseñar al robot a reconocer objetos. Tras ello el robot funciona automáticamente. El núcleo del sistema es una biblioteca CVB de Stemmer Imaging y su utilidad es la de realizar tareas de reconocimiento de objetos, posicionamiento del robot y recogida de objetos.
B) ESPECTRO DE INFRARROJOS
Las nuevas aplicaciones de imágenes térmicas de infrarrojos son mucho mayores de lo que la mayoría de los ingenieros conocen, y los precios de estas cámaras también están cayendo, lo cual hace factible su uso en aplicaciones para las cuales hasta hace poco el coste era prohibitivo. Las aplicaciones obvias de esta tecnología son todas aquellas en las cuales diferenciales de temperatura pueden indicar problemas fundamentales. Entre otras encontramos el análisis y verificación de equipos eléctricos y electrónicos. Sin embargo, si estudiamos otros problemas más sutiles de los procesos industriales veremos que existen muchas más aplicaciones, como por ejemplo el control de los niveles de llenado de yogurts en tarros opacos, aprovechando el momento en el que aún están calientes. Otras aplicaciones para las cámaras de infrarrojos incluyen procesos de control de calidad donde la aplicación deliberada de calor controlado puede usarse para subrayar cualquier defecto sub superficial a través de la absorción no uniforme de calor. Un ejemplo es la inspección de láminas pegadas incorrectamente en componentes de fibras reforzadas o burbujas superficiales en salpicaderos moldeados de automóviles. Las cámaras de infrarrojos, cuando se usan en conjunción con diodos emisores de luz (LED), pueden ser útiles en aplicaciones en las que las condiciones de luz son inapropiadas para la operación de cámaras que funcionan en el espectro visible. Las cámaras de infrarrojos pueden también utilizarse para detectar tensiones estructurales, y en la evaluación de daños. Cedip, ha desarrollado el Altair LI system, que está basado en una cámara de alto rendimiento en plano focal Tradicionalmente las cámaras de infrarrojos han sido más caras que las que trabajan en espectro visible, pero los costes están cayendo rápidamente. Los fabricantes están construyendo equipos con cada vez más especificaciones y orientados a múltiples posibilidades.
C) IMPLEMENTACIÓN SIMPLE
Flir systems ha desarrollado cámaras de infrarrojo de la serie A termovisión que son muy simples y pueden implementarse tanto como cámaras térmicas como visuales. En algunas aplicaciones es interesante trabajar en los dos espectros, lo cual ya es posible con una sola cámara. Estas aplicaciones de inspección abarcan actividades como la industria alimenticia, farmacéutica, circuitos impresos, scanner de documentos, etiquetas, etc. Si lo que se requiere es alta velocidad, hay cámaras disponibles que capturan miles de imágenes por segundo. Un ejemplo de tal producto es Optronis Camrecord 5000, cámara de alta velocidad que se beneficia de un sensor de muy alta sensibilidad. Estás máquinas son aplicables a procesos donde intervienen máquinas que trabajan a alta velocidad, como son las máquinas empaquetadoras.
D) APLICACIONES DE SEGURIDAD Por último, comentamos la cámara desarrollada por basada en sistemas de visión tridimensionales y desarrollada por Pilz para controlar el freno de prensas. Esta cámara usa una fuente de luz LED de color verde y el nuevo sistema crea un campo protegido que está constantemente controlado y representado en el display de la cámara. Si un objeto del tamaño de un dedo alcanza el campo protegido, la prensa se para inmediatamente.

06 marzo 2008

Introducción a la visión artificial

Hablaremos en este blog de la visión artificial y sus aplicaciones industriales. El motivo es que la visión artificial es una técnica interesante para mejorar la productividad, que de día en día muestra más aplicaciones y su coste se reduce también notoriamente. La visión artificial se usa cada vez en mayor tipo de industrias para mejorar la calidad de los productos fabricados. Como ya hicimos con la robótica haremos primero una descripción general de esta tecnología. El objetivo de la visión artificial es la interpretación automática de imágenes de escenas reales en orden de obtener información y a partir de ella controlar máquinas o procesos. Las imágenes pueden ser luz visible, pero pueden ser también rayos X o energía infrarroja, o incluso puede ser información de ultrasonidos. Las aplicaciones industriales tienen lugar en la industria de automoción, en la industria cerámica, en la industria de vidrio, farmacéutica, etc. Entre otras aplicaciones encontramos las siguientes.
Inspección automatizada.
  • Posicionado o guiado de objetos.
  • Detección de presencia o ausencia.
  • Medición de distancias y ángulos.
  • Examen de objetos. Imagen científica.
  • Microscopía.
  • Análisis de partículas.
  • Medición de color

Componentes del sistema de visión: Los sistemas de visión industrial son sistemas de procesado digital que utilizan un dispositivo de captura de imágenes que alimenta un sistema de digitalización que a la vez transmite la información a un sistema de procesado digital.

  • Iluminación y óptica.
  • Cámara.
  • Dispositivo de adquisición de imágenes.
  • Procesado de imágenes y análisis de software.

Costes del equipo: El mercado de la visión artificial de máquinas ha experimentado un tremendo crecimiento en los últimos años. El coste de un sistema promedio se ha reducido a tan solo 35$. Esto incluye el coste del hardware, software, ingeniería de aplicación e integración de sistemas. Algunas aplicaciones, tales como las cámaras smart y sensores de visión y sistemas de visión embutidos, si bien tienen unas aplicaciones muy limitadas, sus costes pueden oscilar en torno a los 10$. Ahorro de costes salariales: En un proceso a tres turnos, basándonos solamente en el ahorro de costes salariales, puede amortizarse un sistema de visión típico en menos de un año. Dado que pueden aumentar otros ahorros de forma concurrente, la inversión en un sistema de visión artificial puede recuperarse incluso más rápidamente. Fiabilidad: El sistema de visión de la máquina es un colector de datos automático. Estos datos son muy fiables, no se experimentan errores tales como los de transcripción, no hay diferencias en medidas tomadas entre operadores o por un operador o por el uso de más de un instrumento de medida. A esto puede ser asignado un valor del 1% del coste anual de inspección de una pieza, por ejemplo. Satisfacción del cliente: Con los sistemas de visión artificial puede esperarse asimismo que mejore la satisfacción del cliente. Aumento de la productividad: Otro beneficio recae en el aumento en la disponibilidad de tiempo de la línea de proceso. Esto puede evitar tiempos de indisponibilidad como resultado de intentar manejar partes extrañas o deformadas, por ejemplo, y puede mejorar la productividad total de la línea de fabricación. El tiempo de indisponibilidad de la línea se conocerá y usando máquinas de visión artificial puede aumentar la productividad en un 20%. Control de procesos: Otros beneficios incluyen la oportunidad del control del proceso. En muchas aplicaciones, la visión de las máquinas puede colectar datos que serán automáticamente interpretados para reflejar las variables del proceso y las condiciones relacionadas con aquellas variables que en último término llevarán a rechazarlo si las condiciones no son corregidas con rapidez. En algunos casos, un sistema de visión puede evitar el envío de partes o elementos equivocados. También puede contribuir positivamente a la reducción de la cantidad de tiempos muertos ya que se rechazan partes inadecuadas y en cada momento están disponibles las partes o elementos de calidad. Disminución de pérdidas de tiempo: Ya que las partes que inspeccionan completamente son el 100%, los costes de repetir el trabajo y los restos disminuyen apreciablemente. El sistema de visión de la máquina será capaz de señalar tendencias llegando a rechazar condiciones antes de que se experimenten y avisarán a un operador para que tome las medidas correctivas y se evite de esta forma se rechace la producción. Un beneficio adicional es derivado de evitar la necesidad de reinspeccionar una parte sobre la que ya se ha trabajado.