Nuestros artículos imprescindibles

31 agosto 2009

Continúa la lenta recuperación del sector del acero

La recuperación paulatina de la actividad económica se está notando en todas las economías que no tienen su propia crisis particular. Un nuevo indicio nos lo da la producción de acero en 66 países, cuyos datos acaba de publicar la Asociación Mundial del Acero. Según este organismo, en julio se vendieron 4 millones de toneladas más de acero en comparación con las operaciones de junio, que escasamente ascendieron a 100 toneladas métricas. Respecto a julio de 2008, las ventas de acero en julio de este año fue un 11 % inferior a las registradas en el mismo mes del pasado año.
La producción de acero crudo de China fue en julio de 2009 de 50,70 millones de toneladas métricas, un 12,6 % más alta que la producción de julio de 2009. Es la primera vez que China produce más de 50 toneladas métricas de acero crudo en un solo mes, cuando alcanzó una cuota de producción global del 50 %. Desde abril de 2009, la recuperación de la producción de acero en China se recupera con fuerza.
En Julio, casi todas las grandes naciones productoras de acero – incluyendo China, Japón, Alemania, Estados Unidos, Brasil, Turquía, Rusia y Ucrania – exhibieron sus cifras más altas de todo el año.
Las cifras interanuales muestran que las mayores caídas en la producción tuvieron lugar en la Unión Europea (caída del 42 %) y los Estados Unidos (caída del 51 %). Las cifras en China son sin embargo positivas (incremento del 3 %) y las de India también (incremento del 1,7 %).

Fuente: Recycling today

La dramática situación de la productividad española

España se enfrenta a una recesión profunda, eso es ya un hecho que nadie niega. Cuando la mayoría de los países se encuentran ya atisbando la recuperación, y algunas de las economías más importantes (Japón, Alemania y Francia) están ya creciendo, nuestro país se prepara para afrontar un año 2010 bastante peor que el ya demoledor 2009. Las obras de la burbuja inmobiliaria están ya prácticamente acabadas, el estado ha agotado sus fondos de estímulo a la economía y las arcas públicas tienen que digerir una caída en la recaudación sin precedentes.
Pero lo peor de todo es que no se vislumbran mejoras ni siquiera a medio plazo, pues la sociedad española sufre un endeudamiento a largo plazo que provocó el timo del ladrillo y del que tardará decenios en recuperarse. El sector bancario, otra de las joyas de la economía española, se enfrenta a una devaluación a largo plazo de su principal activo, el inmobiliario, por lo que poca colaboración podrá esperarse durante varios años.
Pero lo peor de todo es que España sigue sin atajar el principal problema de su economía, que es su baja productividad. Los productos españoles son caros porque cuesta fabricarlos aquí más que en otros sitios, así que tampoco es factible una reorientación sistemática hacia la exportación.
Las medidas que habrá que tomar para solucionar esto son durísimas, y aún la población no está preparada para asumirlas, es por eso que nadie se atreve siquiera a mencionarlas. Pero lo cierto es que en España los salarios son muy elevados en relación con el rendimiento real del trabajador. Se han pagado sueldos desproporcionados por trabajos que no requerían cualificación alguna y eso ha hecho que las empresas no sean competitivas. Si exceptuamos algunos segmentos de mercado más tecnificados que sí pueden ser competitivos, los productos españoles no pueden colocarse en los mercados internacionales. Vivimos realmente en una burbuja donde se pretenden mantener unos loables derechos sociales sin que haya cimientos que sostengan esa capacidad de gasto, y eso hará sin duda que la crisis española sea larga.
Esta es nuestra opinión, que viene avalada por todos y cada uno de los indicadores económicos y de competitividad que venimos examinando. La situación es realmente deplorable. Sirva como ejemplo la siguiente gráfica, que muestra la evolución del crecimiento de la productividad en un buen número de países. Pues bien, en España la productividad no sólo no aumenta, sino que decrece. Países como Grecia, Irlanda o Portugal, que antes siempre quedaban por detrás de España en estos indicadores, ahora nos ganan por goleada. Y lo peor es que tenemos que competir con países como las Repúblicas Bálticas o Polonia, con crecimientos de la productividad anuales del entorno del 5 %.

30 agosto 2009

Operación y optimización de acciones con sensores capacitivos

Hablamos en este artículo de los sensores capacitivos y sus características básicas. Unas ideas esenciales útiles en proyectos de diseño con sensores. Los sensores capacitivos sin contacto miden los cambios en una propiedad eléctrica llamada capacitancia. La capacitancia describe como dos objetos conductores como espacio entre ellos responderán a diferencias de voltaje aplicada a ellos. Un voltaje aplicado a los conductores crea un campo eléctrico entre ellos, causando que cargas positivas y negativas se colecten el objeto. Sí la polaridad del voltaje se invierte, las cargas también se invertirán. Los sensores capacitivos usan un voltaje alternante el cual causa que las cargas continuamente inviertan sus posiciones. El movimiento de las cargas crea una corriente eléctrica alternante que es detectada por el sensor. La cantidad del flujo de corriente es determinada por la capacitancia, y la capacitancia es determinada por el área de superficie y la proximidad de los objetos conductores. Los objetos más grandes y más cercanos causa mayor corriente que los más pequeños. La capacitancia está también afectada por el tipo de material conductor en el hueco entre los objetos. Técnicamente hablando, la capacitancia es directamente proporcional al área de superficie de los objetos y la constante dieléctrica del material entre ellos, e inversamente proporcional a la distancia. En las aplicaciones de sensores capacitivos típicos, la sonda o sensor eso de los objetos conductores y el objeto objetivo es el otro. El tamaño del sensor y el objetivo se asumen constantes, como es el material entre ellos. Por lo tanto, cualquier cambio en la capacitancia es un cambio en la distancia. La electrónica del sensor está calibrada para generar cambios de voltajes específicos para los correspondientes cambios en capacitancia. Los voltajes se escalan para representar cambios específicos en la distancia. La cantidad de cambio de voltaje para una cantidad dada de distancia se denomina sensibilidad. Un rango de sensibilidad común es 1.0 V/100 µm. Esto significa que para cada 100 µm en distancia, el voltaje de salida cambia exactamente 1.0 V. Con esta calibración, un cambio de 2 V en la salida significa que el objeto se ha movido 200 µm respecto a la sonda.

Enfocando el campo eléctrico

Cuando se aplica un campo eléctrico a un conductor, el campo eléctrico emana de cada superficie. En un sensor capacitivo, el voltaje del sensor sí aplica al área sensora de la sonda. Para medidas exactas, el campo eléctrico del área sensora necesita ser contenida dentro de la sonda y el objeto. se permite que el campo eléctrico se extienda a otros ítems –u otras áreas en el objeto – entonces el cambio en la posición de estos ítems se medirán como un cambio en la posición del objeto. Una técnica llamada “guarding” es utilizada para prevenir que esto ocurra Para crear un guard, la parte trasera y los lados del área sensora se rodean por otro conductor que se mantiene al mismo voltaje que el área sensora en sí misma. Cuando el voltaje se aplica al área sensora, un circuito separado aplica exactamente el mismo voltaje al guard, por lo que no hay campo eléctrico entre ellos. Cualquier otro conductor al lado o detrás de la sonda forma un campo eléctrico con el guard en vez de con el área sensora. Sólo se permite que el frente no protegido del área sensora forme un campo eléctrico.

Bibliografía:
  • Capacitive Sensor Operation Part I: The Basics. Sensors
  • Capacitive Sensor Operation Part II: System Optimization. Sensors

29 agosto 2009

Interoperabilidad de la tecnología OPC UA

La integración de varios componentes de sistemas de automatización puede costar hasta diez veces el precio de los componentes, dependiendo la complejidad del sistema. Este hecho por si sólo puede destrozar los beneficios de un sistema integrado. Las últimas especificaciones de la tecnología OPC UA mantiene el potencial de reducir estos costes penalizadores. No obstante, es necesario que los suministradores adopten estas especificaciones. OPC DA (Data Access) ha tenido éxito moviendo datos más simples de dispositivos a dispositivos y en bases de datos integradas con sistemas empresariales. Pero las especificaciones están creciendo y necesitan salir fuera de la órbita de Microsoft´s component object model (COM) y operar en las nuevas tecnologías de internet. Así se desarrolló la OPC Unified Architecture (UA). Esta especificación permite incluso mayor interoperabilidad que las generaciones anteriores y ofrece mayor seguridad. Las aplicaciones de esta tecnología podemos verlas por ejemplo en la industria farmacéutica, que pretende aprovechar las ventajas de los sistemas de control complejos e interconectar instrumentos complejos tales como analizadores o espectrofotómetros. Esta estrategia es un gran beneficio para la industria farmacéutica ya que permite obtener visibilidad en el proceso. El problema es que los suministradores de estos instrumentos complejos cada uno utiliza sus propias interfaces y la interconexión de estos instrumentos puede ser muy costosa. Sin embargo hay muchas similaridades. Todos retornan a datos de uno, dos o tres dimensiones, con propiedades similares. Todos estos instrumentos envían cantidades de datos estructurados que la antigua tecnología OPC no tiene la capacidad para manejar con las restricciones de tiempo requeridas. Sin embargo, OPC UA puede hacerlo aunque añade complejidad a lo que antes era una especificación bastante sencilla.
Bibliografía: OPC UA Interoperability Proves Worth For Pharma. Automation World July 2009 Palabras clave: OPC UA technology

28 agosto 2009

Tecnología de válvulas de control: Diagnóstico online

Hoy hablamos de la tecnología de diagnóstico on-line de las válvulas de control, una tendencia en expansión en las plantas industriales. El mantenimiento efectivo de válvulas de control es esencial para la operación segura de y eficiente de una planta industrial. Para estar seguros que el mantenimiento es tan efectivo y eficiente como sea posible, puede ser útil considerar el uso de las últimas tecnologías de diagnósticos de las válvulas de control, ya que se han obtenido recientemente buenos resultados en esta área. Hay dos aproximaciones básicas para las válvulas de control de mantenimiento: Mantenimiento Basado en el Tiempo (TBM) y Mantenimiento Basado en Averías (BM). Estas aproximaciones se aplican a válvulas de control individuales basadas en la aplicación de válvulas y su ranking de importancia. Sí se aplica la política TBM, la válvula se revisa durante el periodo de mantenimiento de cierre. Así se aplica la política BM, la válvula se controla mediante metodologías indirectas, tales como patrullas o información eléctrica del sistema de control distribuido (DCS). Sí se detecta un problema o surgen dudas sobre la condición de la válvula utilizando estas metodologías, comienza la actividad de búsqueda de problemas y, si se encuentra que la válvula es causa del problema, es reparada. Desgraciadamente, estas aproximaciones usadas en mantenimiento dejan algunas cuestiones por resolver. La más significativa de éstas es la tendencia hacia el sobre mantenimiento de válvulas TBM. La experiencia con inspecciones indican que pueden producirse serios daños o deterioros en sólo el 40 % de las válvulas inspeccionadas. Esto quiere decir que en el 60 % de los casos, la válvula de control se quitó innecesariamente de las líneas de proceso. Cuando consideramos varias actividades y factores relacionados con las inspecciones, tales como logística de mantenimiento, los resultados son que aún queda mucho potencial de mejora en el coste de mantenimiento de las válvulas TBM. Una de las formas para resolver este problema es utilizar tecnologías de diagnóstico online para controlar el mantenimiento de las válvulas de control. Recientemente la importancia de esta tecnología está aumentando debido a las limitaciones de los recursos técnicos de mantenimiento y a los complejos de mega-plantas construidas que son difíciles de gestionar con recursos existentes. No es sorprendente por ello que muchos productos del mercado que caracterizan este tipo de sistemas, con un posicionador de válvula inteligente que tiene capacidades de diagnóstico y es compatible con la red de información/control digital. Tales sistemas tienen el potencial de reducir los costes de mantenimiento de las válvulas de control TBM, debido a que nos permiten decidir si una válvula está en buenas condiciones o no utilizado una función de diagnóstico mientras la planta está operando, y eliminamos de esta forma revisiones e inspecciones de válvulas innecesarias. .
Sistema de soporte de mantenimiento .
Un tipo de sistema, que consiste en un posicionador de válvula inteligente, su función de diagnóstico, y software de PC relacionado se denomina sistema de soporte de mantenimiento de la válvula de control. El elemento clave del sistema de soporte de mantenimiento de la válvula de control es un posicionador de la válvula inteligente. Adicionalmente a su función principal, esto es la apertura de la válvula de control, el posicionador de la válvula inteligente también consigue información de operación de la válvula y análisis de la condición de la válvula usando una función de diagnóstico integrada. El posicionador después transmite la información de diagnóstico por medio de un protocolo de comunicación digital como Foundation Fieldbus al software de aplicación del PC del sistema de soporte de mantenimiento de la válvula de control. Los ingenieros de instrumentación o los técnicos de mantenimiento pueden obtener información del status de la válvula de control de este software.
-
Tecnología de diagnóstico online .
La tecnología de diagnóstico online utiliza algoritmos y parámetros que son manejados por el sistema de soporte de la válvula de control. Por ejemplo, el algoritmo stick-slip es una tecnología única que detecta si el vástago de la válvula tiene tendencia a pegarse. Este algoritmo trabaja examinando la distribución de la velocidad de movimiento. Una válvula que está en buenas condiciones exhibe un movimiento uniforme, y un diagrama de la velocidad del movimiento del vástago muestra una curva de distribución normal. Por otra parte, sin la válvula no está en buenas condiciones, y muestra un movimiento pegajoso, la distribución de la velocidad del vástago muestra un pico en el punto cero. Pero otros muchos parámetros de diagnóstico son también valiosos, algunos útiles para determinar el periodo de mantenimiento óptimo de las piezas consumibles y algunos buenos para detectar la tendencia hacia el clogging en el interior de las válvulas.
Palabras clave: time-based maintenance (TBM), breakdown maintenance (BM)

27 agosto 2009

Sensores de alto rendimiento para aplicaciones de Servo Control

La versión realzada de alto rendimiento del sensor de posición decodificador se caracteriza por un procesado de datos más rápido y exacto para aplicaciones de servo control en la industria de automatización. El sensor de posición lineal Temposonics® R-Series con Synchronous Serial Interface (SSI) proporciona a los clientes sensores de alto rendimiento en una carcasa industrial duradera.
Este sensor de posición es ideal para el uso en máquinas-herramienta y producción de metales, fundición, punzonado y estampado, inyección de plástico y moldeo por soplado, así como simulación del movimiento.
  • Sensores industriales para ambientes agresivos.
  • Medición absoluta lineal.
  • Tecnología sensora sin contacto.
  • LEDs para diagnósticos de sensores.
  • Exactitud superior: Resolución por debajo de 1 µm.
  • No linealidad menor que 0,01 % .
  • Repetibilidad inferior a 0,001 % .
  • Direct that that 24/25/26 Bit SSI output, gray/binary.
  • Medición síncrona de sensores en tiempo real.
Fuente: Temposonics

26 agosto 2009

Técnicas de ensayos para comunicaciones inalámbricas

La demanda de comunicaciones inalámbricas continúa acelerándose con el cambio aplicaciones intensivas en datos tales como surfing web y video. Los consumidores esperan un ancho de banda más alto y los proporcionadores de servicios desean vender servicios de mayor valor añadido además de la voz.
Para suportar estas nuevas demandas del consumidor, se está desarrollando la tecnología fundamental que proporciona servicios de voz y datos. Estas aplicaciones requieren mayores tasas de transmisión que están creando nuevas aproximaciones al uso de un espectro de frecuencia limitada.
Actualmente están siendo usados tipos de modulación espectralmente más eficientes junto con un ancho de banda de señales incrementadas. Actualmente están siendo implementados nuevos métodos de transmisión tales como multiplexión de división de frecuencia ortogonal (OFDM) y múltiple-entrada, múltiple-salida (MIMO) para incrementar las tasas de transmisión.
Estos métodos desafían a los ingenieros al añadir más capas de complejidad. Como consecuencia de ello, hay un énfasis progresivo que demanda ensayos RF y los desafíos asociados con él.
El formato de modulación denominado portador simple transmite símbolos de un dato en un portador de frecuencia simple.
Con la tecnología de señales OFDM el ratio de potencia pico/promedio se incrementa espectacularmente.
El ensayo de compresión de ganancia usando equipos RF puede ser insuficiente para determinar con exactitud los errores. Keitthley ha desarrollado una técnica de medición que discierne el nivel de compresión de ganancia en un amplificador RF DUTs empleando señales OFDM. La modulación OFDM requiere mucho mayor nivel de procesado de señales digitales en los dispositivos móviles. Sin embargo, con el avance de la tecnología DSP, este nivel de rendimiento puede incluirse en un dispositivo móvil a un coste y consumo energético razonable. La modulación OFDM se usa en Wi-Fi, WiMAX, y en standardar emergente para teléfonos móviles Long Term Evolution (LTE).
Los fabricantes de dispositivos inalámbricos se enfrentan a un gran número de desafíos en los ensayos RF. Uno de los desafíos más significativos es la transición de configuraciones SISO con un transmisor y un receptor con información enviadas sobre un canal de datos única. Una configuración típica que podemos mencionar como ejemplo es la Wi-Fi que con una antena usamos en cualquier lugar. Las antenas se orientan continuament buscando la mejor trayectoria de la señal, y en un momento determinado hay solamente un flujo de datos y un canal de datos únicos.
MIMO dramáticamente mejora la eficiencia espectral, pero con mejor eficiencia espectral llega también un mayor nivel de complejidad. MIMO emplea más portadores de radio para transmitir más información, mejorando la eficiencia espectral transmitiendo todas las señales en el mismo canal y ocupando el mismo ancho de banda. Esta tecnología puede ser usada en un amplio rango de dispositivos de comunicaciones comerciales incluyendo teléfonos móviles, PDAs y laptops.
Hay varios desafíos claves cuando se ensaya MIMO. Uno es la cantidad haces espaciales que pueden ser soportados. Por ejemplo, tanto WLAN como LTE soportan cuatro configuraciones de haces; las tecnologías WiMAX con configuración de matriz A y B soportan dos haces. Otra cuestión clave es mantener bajos los costes por haces sin sacrificar rendimiento. Los costes de los equipos de ensayos, particularmente de los sistemas MIMO, pueden multiplicarse rápidamente.
El cambio de las tecnologías de SISO a MIMO permiten que se transmitan múltiples haces de datos al mismo tiempo, usando el mismo espectro de frecuencia. Estos haces de datos paralelos pueden usarse ya sea para incrementar la cantidad de transferencia de datos transfiriendo diferentes datos en cada antena o incrementando la cobertura enviando el mismo dato a todas las antenas.
Los ensayos de la siguiente generación dependerán de numerosas innovaciones industriales. Por ejemplo, la arquitectura SDR se adapta rápidamente a los requerimientos cambiantes del mercado inalámbrico, dándole longevidad añadida. Los instrumentos basados en SDR pueden generar o demodular virtualmente cualquier señal con un ancho de banda de modulación de hasta 40 MHz., importante para muchos de los dispositivos de hoy y para muchas nuevas señales standard del mañana tales como 4G LTE (Ultra mobile broadband) con una simple actualización del software.
La tecnología DSP contribuye también a aumentar el rendimiento. Permite un ajuste más rápido, con un cambio de frecuencia en menos de 1 milisegundo para la mayoría de los pasos de frecuencia. Una plataforma DSP se complementa típicamente con una memoria de forma de onda relativamente grande. Junto con los beneficios del ancho de banda incrementado, la transmisión y recepción multi-señal añade más capas de complejidad. Por ejemplo, la transmisión de múltiples señales requiere una sincronización y recepción altamente exacta. Uno de los mayores desafíos de los ensayos implica la sincronización. La transmisión de señales múltiples requiere sincronización exacta de múltiples canales en fase y alineación de muestreo. Esto asignifica que los analizadores y generadores de señales deben tener alineación precisa en orden de hacer mediciones exactas y repetibles.
Bibliografía: Meeting the challenges of wireless communications test. Industrial & Test Focus. EE Times Europe April 2009.
Palabras clave: Orthogonal frequency division multiplexing (OFDM), Multiple-input, multiple-output (MIMO), DSP technology, DSP-based software software-defined radio (SDR) architecture

25 agosto 2009

Propiedades del amoniaco como refrigerante

En varios artículos venimos hablando de las últimas tecnologías en refrigeración (ver "Controles de refrigeración PlantVisorPRO", "Refrigeración, seguridad y calidad de los alimentos", "Sobre las últimas tecnologías en compresores industriales y su eficiencia", "Enfriamiento por absorción utilizando biomasa como combustible", "Sobre las últimas tecnologías de licuefacción del gas natural", "La carrera por el desarrollo de sistemas de frío industrial ultra-eficientes"), y también lo hemos hecho del amoniaco como una de las tecnologías que pese a ser convencional están actualmente en auge ("Ventajas en costes y eficiencia energética del amoniaco como refrigerante" ). En este nuevo artículo volvemos al amoniaco pero en esta ocasión vamos a centrarnos en las propiedades de este agente químico como refrigerante.

El crecimiento del amoniaco está aumentando a nivel global, pues las restricciones ambientales a los refrigerantes clorados o fluroclorados han hecho emerger al amoniaco como un refrigerante que no contribuye a la disminución de la capa de ozono ni al calentamiento global. El amoniaco es un refrigerante eficiente usado en la preservación y procesado de alimentos, así como muchas otras aplicaciones en refrigeración y aire acondicionado. En la industria alimentaria el uso del amoniaco está muy extendido, alcanzando aproximadamente al 90 % de las instalaciones existentes. El amoniaco tiene características deseables como refrigerante que son conocidas desde hace aproximadamente un siglo, y la más importante de todas es que la eficiencia energética del amoniaco es mayor que el resto de los refrigerantes, por lo que utilizando amoniaco se consigue disminuir el consumo energético de la instalación. También el coste del amoniaco es una ventaja atractiva ya que es mucho menor al de cualquier refrigerante sintético. En términos generales cuesta entre el 10 y el 20 % menos en instalación.

Hay que indicar que el amoniaco es corrosivo y peligroso cuando se libera a la atmósfera en grandes cantidades, por lo que exige tomar precauciones especiales. Debido a su naturaleza irritante, las personas no pueden permanecer en atmósferas que contienen amoniaco por ser peligroso para la salud. Aunque el amoniaco puede arder en altas concentraciones, su ignición es difícil y la combustión no se mantiene si se retira la fuente de ignición.

Usos comunes del amoniaco


El amoniaco es un componente químico alcalino, sin color, que se reconoce por ser la base de muchos productos de limpieza doméstica, y también se utiliza en muchas aplicaciones agrícolas, industriales y comerciales. El amoniaco está disponible en cuatro grados comerciales – fertilizante, refrigerante, federal y metalúrgico – dependiendo del nivel de pureza.

El grado del amoniaco utilizado en refrigeración tiene un 99.98 % de pureza y está libre de agua y otras impurezas (máximo 150 ppm de agua, 3 ppm de aceite, 0,2 ml/g de no condensables). El amoniaco está siempre disponible, es barato, opera a presiones comparables con otros refrigerantes, y es capaz de absorber grandes cantidades de calor cuando se evapora. El amoniaco se produce en todo el mundo en unas cantidades estimadas de 100 millones de toneladas métricas.

Las aplicaciones más comunes del amoniaco son las de uso agrícola, sector que absorbe el 80 % de la producción de amoniaco. Las más comunes son las siguientes:
  • Inyecciones directas en suelo como fertilizante (hasta 150 libras anuales por acre).
  • Producción de urea (material cristalino sin color que está altamente concentrado, forma parte de los fertilizantes de hidrógeno y es fuente de proteína para la alimentación del ganado).
  • Defoliante del algodón previo a la cosecha.
  • Agente anti-hogos en ciertas fruta.
El 20 % restante del amoniaco fabricado comercialmente se utiliza en aplicaciones industriales, tales como:
  • Inyección directa en control de la reducción catalítica selectiva de los óxidos de nitrógeno en emisiones de chimeneas.
  • Inyección directa de hidróxido de amoniaco en emisiones de chimeneas para neutralizar óxidos de azufre de combustibles que contienen azufre.
  • Componentes de nitrógeno para la fabricación de explosivos tales como TNT y nitroglicerina.
  • Refrigerantes en ciclo cerrado en muLista con viñetaschos sistemas de refrigeración industrial.
  • Agentes neutralizantes para constituyentes ácidos en plantas de tratamiento de aguas residuales.
Menos del 2 % del amoniaco producido comercialmente en el mundo se utiliza como refrigerante.

Usos del amoniaco en refrigeración

Con el incremento de las regulaciones en el uso de los refrigerantes basados en clorofluorocarbonos (CFC), hidroclorofluorocarbonos (HCFC) e hidrofluorocarbonos (HFCs), y la eliminación por fases de CFCs y HCFCs, se investigaron activamente otros refrigerantes para su uso en los sistemas de refrigeración existentes. Los refrigerantes alternativos deben tener características termodinámicas similares a los halocarbonos y ser seguros para los humanos y el medio ambiente. El amoniaco es un refrigerante alternativo tanto para sistemas de refrigeración y equipos de aire acondicionado. Puede utilizarse además tanto en equipos nuevos como en los ya existentes. Tiene un punto de vaporización bajo (-33º C), un potencial de disminución de la capa de ozono cero cuando se libera a la atmósfera y un alto calor latente de vaporización (9 veces mayor que el R-12). Adicionalmente, el amoniaco en la atmósfera no contribuye directamente al calentamiento global. Estas características dan como resultado un refrigerante de alta eficiencia energética con mínimos problemas ambientales. Con un análisis económico puro, sin cargas reguladoras y necesarias, el amoniaco encontraría aplicaciones más amplias de las que actualmente disfruta. Conforme los códigos de diseño y pateado asumiendo la seguridad del amoniaco sus aplicaciones aumentando. Las aplicaciones de sistemas de refrigeración basados en el amoniaco incluyen sistemas de almacenamiento térmico, enfriadores para aplicaciones de aire acondicionado, supermercados, etc.


La seguridad del amoniaco

El amoniaco sólo es peligroso en altos niveles de concentración. Según la NIOSH, el nivel de concentración al que puede exponerse una persona durante 30 minutos sin protección respiratoria es de 500 partes por millón. El amoniaco es un gas irritante y esto ayuda a prevenir que alguna persona pueda exponerse a concentraciones peligrosas de forma inadvertida. El umbral de olor promedio de las personas es de cinco partes por millón, muy por debajo de las concentraciones peligrosas.

Las propiedades de auto alarma que tiene el amoniaco son conocidas virtualmente por todos los ingenieros, diseñadores, técnicos y mecánicos que trabajan con sistemas de amoniaco regularmente. Así, incluso las pérdidas más pequeñas se reparan rápidamente.

Los sistemas de amoniaco modernos son sistemas completamente cerrados con controles totalmente integrados, que regulan la presión en todo el sistema. Por ello los sistemas de refrigeración son seguros, y además cumplen códigos de diseño que son efectivos, maduros, constantemente actualizados y revisados. El mayor riesgo podría provenir de una posible explosión, pero para prevenirlo estos sistemas utilizan válvulas de seguridad que evitan cualquier sobrepresión. El método preferido para aliviar estas sobre presiones es la liberación directa a la la atmósfera. El amoniaco es más ligero que el aire (el peso molecular del amoniaco es 17, mientras que el peso molecular del aire es.

Aspectos ambientales

El amoniaco permanece en la atmósfera tan solo unos días por lo que se considera un gas biodegradable. Hasta tal punto esto es así que incluso se utiliza el amoniaco para reducir peligrosas emisiones de gases de chimeneas inyectando lo directamente en los gases de salida de las turbinas de gas y calderas.

En los últimos años hay una tendencia creciente a estimular el uso de amoniaco como refrigerante, estos estímulos vienen tanto de organismos internacionales como de las políticas de algunos países avanzados como Alemania.

Bibliografía: Ammonia as a refrigerant. ASHRAE 2006 Palabras clave: Ozone depletion potential (ODP)

24 agosto 2009

Se simplifica el despliegue de algoritmos matemáticos en sistemas de operación en tiempo real

Según informa NIWEeek, citando la necesidad de ayudar con prototipos de sistemas embebidos complejos, National Instruments ha desvelado nuevas características de su software de diseño de sistemas gráficos que simplificará el proceso de desplegar algoritmos matemáticos en los sistemas en tiempo real. Conocido como LabView 2009, el Nuevo software permitirá a los desarrolladores de productos incluir algoritmos matemáticos de texto en sistemas embebidos. Sin ninguna traslación, sin cambiar ningún código los ingenieros pueden trasladar archivos “.m” a sistemas de operación en tiempo real. Simplificando el proceso de desplegar algoritmos matemáticos a sistemas de operación en tiempo real, National Instruments dice que su nuevo software puede ayudar a los desarrolladores de dispositivos médicos, constructores de máquinas y diseñadores de sistemas de automoción. Las nuevas características pueden ayudar en el diseño y despliegue de algoritmos en muchos sistemas embebidos. Hasta ahora, las herramientas matemáticas basadas en texto necesitaban ser re-escritas para ser usadas en un sistema de operación embebido. Ese proceso de re-implementación añadía tiempo y complejidad a la creación de productos que usaban la filtración de sistemas de dominio de frecuencia y dominio tiempo. Cuando se está trabajando sobre vectores o matrices de datos, muchos ingenieros prefieren hacerlo en código matemático basado en texto. LabView 2009 simplifica el proceso incorporando el NI's MathScript RT Module, que expande el acceso del código matemático en tiempo real y elimina el proceso de re-implementación. Como consecuencia de ello, los ingenieros de NI dicen que ayudarán a los desarrolladores de productos embebidos a reducir el tiempo de lanzamiento al mercado.
.
Fuente: NIWeek

La clave de la eficiencia del film solar

Las células de film-solar están comenzando a hacer la competencia a las células solares de silicio cristalino que dominan el mercado fotovoltaico de hoy. Su gran ventaja es que el coste es más bajo pero aún necesitan vencer algunos desafíos. Las células solares delgadas reducen el coste de generación a 1$ por vatio. Depositados en sustratos de vidrio o láminas metálicas flexibles, las células solares de film se fabrican con capas a escala de micrómetro de los costosos semiconductores con los que se fabrican los módulos solares. Actualmente ya está en el mercado la segunda edición de células Solares basadas en films delgados tales como silicio amorfo y teluluro de cadmio. Mientras tanto, los desarrolladores tienen planes ambiciosos para una tercera generación de células solares cuya eficiencia sería similar a la del silicio cristalino. No obstante, hay aún serios desafíos. Las células solares han sido durante largo tiempo una tecnología de nicho, usada para generar electricidad donde no era factible la conexión a las redes de distribución. Asimismo, muchos objetos como satélites, calculadoras de bolsillo, e iluminación decorativa. Las células experimentales han convertido más del 40 % de la luz incidente en electricidad, pero este proceso es costoso, y alcanzar los máximos rendimientos requiere óptica que concentre la luz solar en células. Los desarrolladores de instalaciones solares desean sistemas simples y económicos que requieran poco mantenimiento para ser usados en tejados o en lugares remotos. Los objetivos actuales incluyen tejas solares para instalaciones domésticas, y grandes paneles inclinados para parques de generación. Las propuestas para sistemas del futuro incluyen láminas fotovoltaicas integradas que puedan extenderse sobre ventanas o paredes, convirtiendo algo de la luz incidente en electricidad y transmitiendo o reflejando el resto. Consiguiendo estos propósitos se avanzará en esta nueva tecnología.
Las células solares de film-delgado inorgánico
Las células fotovoltaicas de film delgado fabricados con silicio amorfo o compuestos calcogenidos son la aproximación más prometedora. Se demostró hace ya 20 años que requieren mucho menos semiconductor que las células convencionales, pero su eficiencia es aún reducida, en parte debido a que tienen un volumen más pequeño en el que absorber la luz. La deposición de vapor-químico forma tres capas de silicio amorfo en sustratos flexibles o sólidos. La eficiencia de la conversión puede alcanzar en torno al 10 % en el laboratorio, pero las células comerciales tendrán una eficiencia del 6-8 %.
Bibliografía: The key to success is higher efficiency. LaserFocusWorld March 2009 Palabras clave: chalcogenide

23 agosto 2009

Integrando servidores OPC y sistemas SCADA

En un reciente proyecto de integración de datos, los ingenieros de Siemens en Copenhagen, Dinamarca, fueron capaces de conectar equipos e instrumentación funcionando e unas instalaciones de seguridad en una localización remota usando el OPC DataHub. El propósito perseguido fue permitir a los técnicos el acceso a las máquinas que ellos necesitaban para trabajar sobre ellas sin neutralizar la seguridad o permitiendo el acceso no autorizado.
Al principio el proyecto se planteó como una aplicación OPC típica. El principal objetivo fue conectar una unidad de enfriamiento con un servidor OPC típico. El principal objetivo fue conectar una unidad de enfriamiento con un servidor OPC y unas instalaciones energéticas a dos sistemas SCADA en una estación de control. Pronto comenzaron a detectarse problemas en la red. Las redes OPC dependen de un modelo de objeto distribuido (Distributed component object model o DCOM), que en la mejor de las veces puede ser difícil de configurar y lento de reconectar después de la rotura de la red. Para complicar las cosas el servidor OPC suministrado por el fabricante de la enfriadora no era adecuado para las tareas previstas.
El servidor OPC tenía un comportamiento extraño, no funcionaba en servicio y no permitiría conexiones directas usando DCOM, debido a que cuando se desconecta, no era posible reconectarlo. La solución por la que se optó fue encapsularlo en el OPC DataHub (de Cogent Real-Time Systems). Sus sistemas SCADA cada uno se conectan a su OPC DataHub, y el enlace de datos se completó. Los técnicos pueden de esta forma ver datos de la instalación de alta seguridad desde una distancia segura en la localización de control.
Los dos sistemas SCADA están separados de la unidad de enfriamiento, pero completamente conectadas en tiempo real, así que los técnicos pueden trabajar en ellas cuando son utilizadas.
Con el sistema de enfriamiento en funcionamiento, pueden integrarse más fuentes de datos en el sistema. Tienen unos pocas unidades UPS (suministro de energía ininterrumpido) con conectividad SNMP que necesitan controlar, y añadiendo un SNMP-OPC server, los datos se llevarán al OPC DataHub. Después de eso, se necesita fijar un OPC server para varios dispositivos de entrada de lectura de medición. Todos estos datos necesitan ser enviados a través de los sistemas SCADA, y estarán disponibles a las personas de mantenimiento que necesitan acceder a ellos.
El OPC DataHub funciona muy bien. No necesita mucha integración de datos. El OPC DataHub es una herramienta de integración optimizada para datos en tiempo real. Proporciona rápido, fiable y seguro acceso a procesos valiosos y datos de producción y los hace disponibles para sistemas de gestión, archivos de bases de datos, y clientes remotos. Combinando OPC DataHub se hace fácil el acceso a datos en tiempo real.

Bibliografía: Integrating OPC Servers and SCADA Systems. AutomationWorld. July 2009.

21 agosto 2009

Los supermotores que llegan

Después de décadas de planificación y diseño, motores reales que usan elementos semiconductores han sido ensayados por la U.S. Navy. American Superconductor Corporaton y su socio Northrop Grumman. Estos motores han sido probados a plena carga en el motor de propulsión de un barco a 36,5 MW. Los denominados High-temperature superconductor (HTS) transportan 150 veces más energía que los conductores de cobre de tamaño similar. Incluso su tamaño es menos de la mitad de los nuevos motores de los destructores de misiles guiados DSG-1000 de la armada de Estados Unidos. Los HTS se descubrieron en 1986. Los conductores libres de resistencia que están hechos de materiales cerámicos que exhiben propiedades semiconductores a altas temperaturas entre – 250 º y -150 ºC (en contraste con los superconductores de baja temperatura, que operan por debajo de – 262 ºC. Ambos tipos de superconductores tienen que enfriarse a temperaturas criogénicas en orden de exhibir la propiedad de superconductividad, pero los sistemas HTS requieren sistemas de enfriamiento menos caros que los superconductores de baja temperatura. El nitrógeno líquido a – 200 ºC puede usarse para algunas aplicaciones HTS. Los detalles del sistema de refrigeración para el motor de 36,5 Mw no fueron desvelados, pero se cree es similar a un prototipo anterior con un sistema de refrigeración que usaba cash helio en un bucle cerrado para mantener el devanado del campo HTS a temperatura criogénicas. Las aplicaciones de estos motores son sobre todo los grandes motores navales. Construir un motor convencional para un destructor requiere un motor cuatro o cinco veces más pesado. El motor HTS opera a 120 rpm y a una temperatura de aproximadamente 32K, es decir – 241 ºC. El consumo del sistema de enfriamiento criogénico es inferior a un 1 % de las pérdidas totales de la máquina.
Bibliografía: Big Superconducting Motor Passes Its First Tests. Control Engineerign Europe July 2009
Palabras clave: High-temperature superconductor (HTS)

20 agosto 2009

Como podemos obtener datos de nuestro proceso industrial

La falta de datos es probablemente la causa más relevante de pérdida de productividad industrial, y en estos tiempos de contracción económica las dificultades para tomar decisiones provienen sobre todo de la falta de datos fiables. En las empresas se derrocha tiempo al recabar datos una y otra vez y al desconocer la maravillosa información que puede obtenerse aplicando correctamente herramientas de análisis. Pero como ocurre con todos los valores intangibles, la pequeña y mediana empresa no es consciente de la importancia de recabar datos, y en la mayoría de los casos no encuentra justificación a implantar sistemáticas de toma de datos.
.
Historización vs automatización
Muchos gestores empresariales saben que necesitan datos y lo primero que hacen es incorporar a su proceso industrial todo tipo de dispositivos de automatización que faciliten la información que a priori se cree más importante. Normalmente nuestro staff de automatización recurrirá al magnífico soporte que prestan los fabricantes de hardware y software industrial, y sus sofisticados aparatos nos harán pronto olvidar que es el vendedor quien nos está asesorando, y el vendedor tiene un único objetivo, conseguir que compremos sus seductores dispositivos. Compraremos e instalaremos y todo funcionará perfectamente, pero pronto nos daremos cuenta que la solución no se adapta exactamente a lo que necesitamos, hemos automatizado la toma de datos del proceso y estaremos mejor que al principio, pero no hemos conseguido la solución adecuada. El principal motivo por el que los proyectos de automatización industrial no cubren las expectativas globales que se habían puesto en ellos es porque nos falta un buen conocimiento de las variables del proceso. ¿Cómo se comportan las variables energéticas o cuáles son las variables que realmente están penalizando la rentabilidad de nuestro proceso industrial? Si conseguimos responder convenientemente a estas preguntas nuestro proyecto de automatización será algo más que un cúmulo de sensores y medidores colocados arbitrariamente en la planta. Una forma más razonable de comprender y automatizar nuestro proceso industrial es emprende un proyecto de historización de las variables del proceso. Un proyecto de historización consiste en tomar datos, seleccionar los que realmente nos interesan, crear bases de datos y aplicar sofisticadas herramientas de análisis. El proyecto puede durar mucho tiempo, y conforme avancemos iremos definiendo con precisión las herramientas de automatización que iremos incorporando con el tiempo. Cómo iniciar un proyecto de historización
Pero la toma de datos puede hacerse de muchas formas, si lo hacemos bien obtendremos ahorros significativos, pero si lo hacemos mal veremos que el coste de la historización de datos es mayor que el ahorro conseguido con su implementación. La forma más efectiva y barata consiste en obtener datos uno mismo, e ir creando bases de datos a medidas en un programa flexible que nos permite ir depurando la obtención de información. También hay mucho software disponible, pero debemos ser precavidos y trabajar con demos antes de tomar la decisión de una implementación a gran escala. Debe analizarse cuidadosamente el beneficio esperado, considerando el ahorro previsto por el incremento de la producción, reducción de residuos y menos puntos muertos. La razón principal que debe estimular a la implementación de una solución de toma de datos históricos es ganar una comprensión más profunda de los datos de forma que sea posible reducir residuos, mejorar la eficiencia y ahorrar dinero. La utilización de herramientas y recursos correctos, junto con la captación continua de datos durante la puesta en marcha y parada, permite realizar análisis que nos darán una mejor perspectiva de las caídas de producción, permitiendo tomar medidas que hagan aumentar el beneficio. Varios paquetes de software ejecutan estas tareas, equilibrando los datos históricos o implementando específicamente la historización de datos para análisis de los tiempos de parada. Los datos históricos también ofrecen beneficios para la diagnosis y el mantenimiento de equipos tales como bombas y válvulas. Esta información puede permitir que sigas la degradación de una pieza a lo largo del tiempo de forma que pueda ocurrir el mantenimiento preventivo cuando sea necesario. Pueden prevenir fallos inesperados debidos a piezas rotas, desgaste prematuro u otros problemas mecánicos inesperados. Por ejemplo, puede rastrearse el nivel del par de un actuador de válvula a lo largo del tiempo para ver las varianzas de la norma. A veces, los requerimientos de la industria obligan a la implementación de datos históricos. En tales casos, estrechas estipulaciones pueden estrechar la elección de la solución. Los requerimientos del proceso, particularmente para industrias tales como las farmacéuticas, pueden demandar que se proporcionen datos históricos y otros obligatorios para realizar una certificación extensa de la historización de los datos y herramientas de presentación. Los requerimientos de sistemas de control de emisiones en continuo (CEMS) se están expandiendo cada vez a más áreas geográficas e industrias. CEMS implica colección de datos, almacenamiento y elaboración de informes de datos relacionados con emisiones tales como NOx, SOx and CO2. En algunas de las áreas más estrictas, los datos deben informarse electrónicamente cada día.
.
Seleccionando una solución Aunque es factible construir soluciones de archivo de datos a medida en tu propia empresa, rápidamente encontrarás que no puedes conseguir más que una funcionalidad básica sin una inversión significativa en tiempo, dinero y recursos. Afortunadamente, en las últimas décadas han emergido compañías y productos especializados en la historización de datos de procesos. La madurez y características de sus productos difícilmente justificable diseñar soluciones específicas para cada proceso industrial. Estos productos soportan colecciones de datos para cientos de fuentes de datos (controladores lógicos programables (PLC), sistemas de control distribuido (DCS), supervisory control and data acquisition (SCADA) systems y servidores OPC), proporcionan almacenaje eficiente y eficaz de datos, ofrecen funcionalidad de valor añadido tal como agregación, y suministran datos a los clientes mediante una rica diversidad de herramientas que incluyen tendencias, dislplays e informes. Incluso aunque los proyectos de historización pueden implicar una única fuente de datos, debe tenerse en cuenta que en el futuro se añadirán más fuentes. Actualmente puedes plantearse una solución de historización a través de sistemas existentes DCS o SCADA; estas soluciones típicamente se concentran en la historización de sus propios datos. Cuando la solución se expande, la capacidad para soportar la captación de datos del proceso de múltiples fuentes es cada vez más importante. En tu compañía se desplegarán diferentes sistemas DCS, PLC y SCADA, por lo que seleccionar la solución que los soporte es crucial. La colección de datos se realiza a través de un programa de interface de datos o de colección de datos para cada fuente de datos específicos. Estas interfaces de datos usualmente se escriben usando drivers de software del vendedor de la fuente de datos. Los nuevos valores junto con el tiempo de colección se envían a un archivo de datos para su historización. Un creciente número de vendedores está haciendo que sus procesos estén disponibles a través de un OPC, así que la interface de colección de datos OPC está siendo el método más popular para obtener datos de procesos. El almacenaje de datos típicamente implica la creación de archivos de datos o bases de daos relacionales. Los líderes actuales en historización de datos de procesos dependen de sus propios archivos de datos. Muchos datos históricos permitirán almacenar subseries del número total de valores de datos escaneados para cada punto de medición. Esta compresión de datos ayuda a almacenar eficientemente tus datos de proceso dentro de la (deadband zona neutra) prescrita. La compresión de datos es uno de los últimos mecanismos que deben comprenderse en la historia de los datos – y su implementación inteligente puede llevar a mejoras de rendimiento significativas. Por ejemplo, puede historizarse el estado de una bomba (funcionamiento/parada) rastreando el estado actual de la bomba en cada segundo. Si el estado cambia una vez cada hora, almacenar el estado de la bomba cada segundo es redundante e innecesario. Almacenando sólo el valor que cambia, puede reproducirse la misma historia con muchos menos valores y menos espacio de almacenaje. Para lecturas continuas tales como presiones y temperaturas, el almacenamiento de los datos en una deadband puede prevenir el almacenaje de ruido de instrumentación o datos con más precisión. Las herramientas y aplicaciones utilizadas para acceder a datos históricos es tan importante como los datos en si mismos. La mayoría de los usarios accederán a los datos mediante tres métodos: displays de datos gráficos, análisis ad-hoc e informes.
.
Forma de acceder a los datos historizados
Los displays gráficos presentan datos de procesos mediante una colección de objetos históricos y en tiempo real tales como tendencias, valores y bar charts, junto con equipos e imágenes de procesos dinámicos y estáticos. El beneficio de una aplicación de display gráfica con historia es la capacidad para conseguir un display HMI en tiempo real y mantener ese display a lo largo del tiempo. Los displays gráficos presentan datos de procesos mediante una colección de objetos históricos y en tiempo real tales como tendencias. Muchas aplicaciones se mueven hacia las soluciones basadas en web debido a que no requiren instalaciones y actualizaciones en la máquina de cada cliente. Las nuevas tecnologías permiten a las compañías producir productos que funden los beneficios de las aplicaciones web y las basadas en el PC, consiguiendo ricos displays con cero o poca instalación. Para comenzar a extraer datos de un proceso industrial no es necesario que os compliquemos la vida en las etapas iniciales. Podemos comenzar diseñando bases de datos sencillas en Microsoft Excel y a partir de los datos obtenidos en la primera etapa del desarrollo aprenderemos a diseñar lo que realmente necesitamos para nuestro proceso. Los primeros análisis nos ayudarán a detectar qué variables son independientes entre sí y cómo influyen en la productividad de nuestra actividad. En pocos meses aprenderemos a evitar el uso de variables redundantes. Cuando nuestra base de datos crezca, podremos empezar a utilizar herramientas más complejas como filtros o agregaciones de datos que nos permitirán obtener una información muy valiosa. Tus datos te irán haciendo tomar decisiones muy rápidamente, y pronto verás conveniente que la información pueda ser soportada y transferida a interfaces de programación más robustas. Actualmente es factible incorporar standards abiertos tales como OPC y OLEDB a un coste razonable. Finalmente, tus datos te darán la mejor solución para iniciar el camino hacia la factoría inteligente, y la mejor solución probablemente incluya soluciones que impliquen la combinación de aplicaciones de varios vendedores, por lo que el acceso abierto a datos históricos será crucial.
Palabras clave: Basic historization and analysis tools, continuous emissions monitoring systems (CEMS).

19 agosto 2009

Controles de refrigeración PlantVisorPRO


En un artículo anterior (ver “la carrera por el desarrollo de sistemas de frío industrial ultra-eficientes”) iniciamos una serie de artículos en los que hablaremos de la refrigeración ultra-eficiente. Como vimos en el primer artículo, gran parte de la eficiencia en refrigeración puede obtenerse a partir de los modernos controles automáticos, sistemas relativamente económicos y de rápida amortización. En el artículo de hoy hablaremos de la familia de controles del fabricante italiano Carel.
  • Controles paramétricos de refrigeración: La serie ir33 representa la tecnología de carel dirigida al sector de la refrigeración. Las cuatro versiones básicas (12Vac, 12/24Vac/dc, 230Vac and 115/230Vac) dan un amplio rango de productos para diferentes configuraciones. Estos controladores son microprocesadores con un display LED y símbolos gráficos que asisten al usuario. Están diseñados especialmente para la gestión de las unidades de refrigeración, con características que las hacen ideales para el uso con todos los tipos de aplicaciones.
  • PlantVisorPro: El sistema dispone de una interface intuitiva de fácil y navegación, con características avanzadas: bases de datos relacionales, control de acceso, protocolos XML, intercambio de datos entre aplicaciones, Modbus, conectividad TCP/IP e interface web. PlantVisorPRO es un sistema de supervisión con reconocimiento automático de instrumentos en la instalación, registros preseleccionados y alarmas. El sistema dispone de funciones de gestión de la energía, informes HACCP, gestión de alarma y conectividad remota, planificación de actividades y controles de instrumentos o grupos de instrumentos.
  • Soluciones para locales destinados a la maduración: el programa de aplicación para los controladores de la serie pCO puede gestionar las funciones de temperatura y humedad en salas de maduración de queso, salchichas y salami. El software controla el compresor, el ventilador de la habitación de maduración, los calentadores eléctricos y las válvulas de agua caliente y fría. Esta aplicación también permite el control de un humidificador por contacto digital, y la apertura del amperímetro exterior. Esta aplicación, además de mostrar y controlar los valores de la temperatura y humedad, proporcionan una completa gestión de las alarmas, de los ciclos de maduración y de la entrada diaria de aire fresco, gracias a la instalación de un panel con reloj.
  • Control activador universal. Este programa puede gestionar diferentes actuadores o cargas con algoritmos de control basados en lecturas de sondas de presión/temperatura. Se usa para configurar las salidas y adaptar las funciones de control al número de cargas (incluyendo diferentes capacidades). La solución puede adaptarse para gestionar baterías de combustibles.
  • Plug-in series: Es un nuevo rango de controladores destinados a la operación de unidades de refrigeración ventiladas o estáticas a temperaturas normales o bajas. Este controlador permite realizar diseños adaptados a cada cliente a la vez que se mantiene sólo la estandarización de componentes y procesos de producción.
  • Powersplit: Es un nuevo controlador de cofres frigoríficos basados en compresores incorporados. El sistema controla de forma continua una serie de características, tales como: eventos críticos (HACCP), la red local, la conexión de un sistema de tele-mantenimiento y supervisión telemático, la salida del relé de potencia, el bloque terminal del panel y el sensor de luz óptica.
El resto de los controladores Carel pueden explorarse aquí.

17 agosto 2009

Enfriamiento y acondicionamiento del gas de los humos

La temperatura, humedad y volumen de los gases necesitan ser controladas con precisión para evitar:
  • Paradas costosas y Pryca fue una rica veta están e inesperadas causadas por sobrecargas.
  • Disminución de los niveles de producción debido a que los volúmenes de gases sean mayores que la capacidad del equipo aguas abajo.
  • Tiempo de mantenimiento excesivo causado por humedad y lodos acumulados en torres y conductos.
  • Daños a los equipos aguas abajo por descomposición de los residuos.
  • Altos costes energéticos debidos a la ineficiencia operacional del sistema de enfriamiento de gases y equipos aguas abajo.
  • Que las emisiones excedan las regulaciones ambientales.

La refrigeración evaporativa usa una tecnología de atomización de fluidos dual, donde el agua se mezcla con aire comprimido, llegando a ser el método preferido para acondicionamiento de gas porque típicamente ofrece mayor precisión que el enfriamiento hidráulico y unos costes operacionales inferiores. Sin embargo, el rendimiento de los sistemas de fluidos duales varía ampliamente. Es importante comprender los elementos claves del sistema que determinan el nivel del control de gas que puede alcanzarse.

Componentes críticos

El componente más crítico del sistema de enfriamiento es la boquilla de spray. Si el tamaño de la gota y la cobertura del spray no son correctos, pueden ocurrir los siguientes problemas:

  • Enfriamiento insuficiente.
  • Reducción inadecuada en volumen de gas.
  • Humedad.
  • Consumo de energía incrementada.

En realidad, muy pocas boquillas son convenientes para el acondicionamiento del gas. Las boquillas de alta eficiencia proporcionan mejor control, caída de la gota y mejor cobertura del spray. Con sms no sabemos ni me cuenta y ello nos y día of cargo las elecciones al manejar un proceso de atomización de un solo paso no puede conseguirse gotas muy pequeñas. Se requiere un proceso multietapa.

Los beneficios de conseguir una mejor difusión son muchos:

  • Disminuyen los costes de energía.
  • Cuanto más pequeño es el tamaño de la gota mayor es la superficie de líquido para la reacción química.
  • Tiempo necesario para la evaporación completa reducido.
  • El líquido en forma de spray genera más área de superficie por litro.

Comprendiendo las aplicaciones en enfriamiento de gas

Muchos problemas provienen de una evaporación prematura o incompleta. Si las gotas se evaporan demasiado rápidamente, el nivel deseado de absorción puede no conseguirse y el equipo funcionar de forma menos eficiente o dañarse. Si el agua pulverizada no se evapora lo suficientemente rápido, se genera humedad y polvo que pueden acumularse en tubos o torres y obstruir el flujo de gas.

En muchos casos, los cálculos de enfriamiento del gas proporcionan bastante información para determinar el número de boquillas requeridas y cómo necesitan posicionarse. Sin embargo, con flujos de gas complicados, condiciones de operación inusuales o trabajos atípicos, los cálculos de enfriamiento de gas pueden no ser suficientes.
El tamaño de la gota es una consideración crítica en enfriamiento evaporativo. Impacta en virtualmente cada aspecto del enfriamiento del gas y puede tener un impacto significativo en la efectividad del enfriamiento.

Dinámica de fluidos computacional y acondicionamiento del gas

CFD utiliza métodos numéricos y algoritmos para resolver y analizar problemas que implican flujo de fluidos. Sofisticado software realiza millones de cálculos requeridos para simular la interacción de fluidos y gases con fenómenos físicos relacionados.

El estudio y caracterización del spray puede hacerse mediante CFD. Esta tecnología puede utilizarse para predecir:
  • Caudal de gas y líquido en lavado de gases, torres y conductos.
  • Características del flujo interno en boquillas de spray.
  • Mezcla de líquidos y gases en boquillas de fluidos duales.

Los modelos CFD ilustran los modelos de flujo, velocidad, temperatura, distribuciones de líquidos/gases, trayectorias de las gotitas, presión dentro del sistema completo y fuerzas de impacto y tensiones causados por el flujo de líquido.

Bibliografía: Spraying Systems Co. Experts in Spray Technology.

Palabras clave: Gas cooling system, evaporative cooling, computational fluid dynamic (CFD)

Tarjetas de control del movimiento en el diseño de máquinas

La tecnología avanza rápido, y ahora los ingenieros tienen la oportunidad de trabajar con sofisticadas propiedades de control del movimiento de máquinas. El propósito de este artículo es ilustrar cómo pueden beneficiarse los diseñadores de máquinas OEM con el uso en su diseño de tarjetas de control de movimiento. Las tarjetas de control del movimiento son una forma popular de realizar control del movimiento en aplicaciones tales como la fabricación ligera, máquinas de laboratorio, e instrumentación. Comenzaremos hablando de las funcionalidades básicas de las tarjetas de control del movimiento y luego hablaremos de las más novedosas y avanzadas características como la programabilidad y la comunicación.
Ideas básicas sobre las tarjetas de control del movimiento
Originalmente, las tarjetas de control del movimiento eran tarjetas conectables al PC que permitían el uso de una plataforma de PC standard, fundamentalmente MS-DOS. Esta es una solución muy atractiva ya que el rendimiento del PC se ha incrementado exponencialmente a la vez que los costes han caído muy rápidamente. Las tarjetas iniciales se basaban en ISA-bus. Al comienzo de las tarjetas aparecieron soluciones como EISA- y PCI-bus, e incluso soluciones de bus industriales como VME. Al mejorar la tecnología de semiconductores, los PC pudieron ser más pequeños y se creó el PC/104 standard alrededor de ISA-bus, para soportar el uso de sistemas de control de PC en espacios más pequeños. La tarjeta standard soporta usualmente entre 1 y 4 ejes, pero hay algunas que soportan hasta 32 ejes. Un sistema de tarjetas de control del movimiento tiene los siguientes componentes:
  • PC motherboard.
  • Tarjeta de control del movimiento.
  • Tarjeta I/O opcional.
  • Tarjeta de interconexión.
  • Chasis.
La plataforma basada en PC fue el origen de la tarjeta de control de movimiento, y lo primero que os viene a la mente es la más corriente PCI-bus card. Pero recientes tecnológicos han cambiado este panorama y han hecho más tenue la línea entre tarjetas de control del movimiento y controladores del movimiento industriales.
Recientes desarrollos de la tecnología del control del movimiento
En los últimos años las tarjetas de control del movimiento se han beneficiado de avances en el diseño y fabricación de chips. Una ingente cantidad de sofisticadas características se van añadiendo sin coste adicional o con un pequeño coste. Por ejemplo, 16-bit ADCs, I/O de propósito general, DACs de 16-bit, etc. Los nuevos procesadores disponibles están revolucionando el mundo del control del movimiento al tener ahora bastante rendimiento como para hacer cálculos complejos que en el pasado tenían que ser encargados a los procesadores del PC. Entre las innovaciones más recientes e interesantes que podemos destacar podemos mencionar la memoria de programa no volátil, que sirve para descargar directamente programas a la tarjeta que pueden ser ejecutados por comandos del procesador anfitrión o algún otro disparador del sistema: I/O, contador, etc. Se avanza de esta forma tan sencilla hacia la inteligencia artificial del escenario industrial incrementando el rendimiento total del sistema. Esta nueva forma de trabajar es a la vez más simple a la hora de desarrollar el código de la tarjeta, pues podemos ensayarlo y depurarlo independientemente del sistema y eludir así los problemas de depurar un sistema más complejo. En la mayoría de los casos, los programas descargados obligan a aprender el lenguaje de comandos del propietario para programar la tarjeta, pues la mayoría de los fabricantes de tarjetas tienen sus propios lenguajes y herramientas, pero hay algunos que soportan lenguajes de programación standard como C/C++ o standards industriales como CEI 61131-3 para programación de tarjetas. Como no podía ser de otra manera, Ethernet ha desembarcado con fuerza también en las comunicaciones entre host y tarjeta, lo cual elimina la necesidad de PC-bus y PC motherboard. Los datos pueden transmitirse ya a 100 Mbps (pronto a 1 Gbps). La tarjeta puede conectarse a alguna red serie de alta velocidad y distribuir el procesado del movimiento a los amplificadores y motores y simplificar el cableado. Todo ello es posible en arquitectura modularizada o distribuida. Las características avanzadas de las tarjetas de control del movimiento son ya infinitas, mencionemos algunas de las más destacables.
  • Programabilidad: Código descargable ejecutado por el procesador de la tarjeta. La capacidad para ejecutar programas desde las tarjetas de control de movimiento es una extensión natural de la tecnología embebida de la pasada década. Con los avances en la tecnología de memoria no volátil y MCUs/DSPs, el coste de crear una plataforma programable ha caído significativamente.
  • Selección del perfil del movimiento: S-curve.
  • Algoritmos de control: Velocity/acceleration feed-fordward, bi-quad filters.
  • Comunicación realzada: Comunicaciones serie de alta velocidad sustituyendo o complementado al PC-bus: Ethernet, CANbus, RS232/485, etc.
  • Advanced feedback technology: Absolute encoder: SSI, EnDAT, Sin/Cos y Resolver.
  • Puerto de expansion de características: Bus de 16 o 32 bits que permiten tarjetas plug-in o daughter que añaden nuevas características/capacidades a la tarjeta.
  • Factor de forma stand-alone: Capacidad para operar remotamente desde un procesador/computador host de sistema.
Ventajas de cada sistema de programación
La creación de su propio lenguaje de comandos tiene mucho sentido para los fabricantes de tarjetas de control del movimiento. Evita la necesidad de un compilador y minimiza el riesgo de limitar la flexibilidad de la serie de comandos a funciones relacionadas con el movimiento. Se evita la creación de programas de control que afecten adversamente la experiencia del usuario y el resultado final. Esto permite optimizar la sintaxis del lenguaje para acoplar la funcionalidad de la tarjeta. Con un lenguaje de comando del propietario de la tarjeta, el fabricante controla todo lo que el usuario puede hacer y así se minimiza el riesgo cuando el usuario está escribiendo programas. El riesgo de crear código que pueda dañar el procesador de la tarjeta es por tanto mínimo. Los únicos errores que pueden cometerse son que el sistema no funcione como se espera. Estos programas obviamente conllevan la necesidad de desarrollar herramientas adaptadas al cliente, pero incluso esto es un beneficio. Para el usuario estos programas de sintaxis limitada son muy fáciles de aprender y las herramientas de programación están integradas con las herramientas de ajuste y configuración del movimiento. Los límites de estos programas son que la sintaxis restringe lo que puedes hacer y estos programas sólo sirven para las tarjetas de un vendedor. La actual tendencia de los usuarios es que se empiezan a preferir los lenguajes de programación en código abierto. Hoy por hoy, C/C++ es el standard de programación más comúnmente usado. Con las mejoras en las tecnologías del compilador y linker, el código C está casi tan optimizado como el código de lenguaje ensamblador puro lo cual lo hace muy rápido y eficiente. Consecuentemente, algunos fabricantes han comenzado a soportar lenguajes de programación standard.
Bibliografía: Erlendur Kristjansson. Motion Control Cards for Machine Design. PMD Palabras clave: PC-based control system, industrial motion controllers, memoria de programa no volatile, distributed architecture, modularized architecture.

14 agosto 2009

Beneficios de los dispositivos inalámbricos para control de la temperatura

La temperatura está ciertamente entre los parámetros más comúnmente medidos en la industria. Recientemente, el crecimiento de la tecnología de instrumentación, junto con algunas innovaciones inteligentes, proporcionan nuevas formas de aplicar sensores de medida de temperatura combinadas con los computadores personales para colectar, tabular, y analizar los datos obtenidos. Para aplicaciones multi-sensores complejas, los dispositivos inalámbricos proporcionan un medio para eliminar el ruido que se genera en grandes distancias.
Actualmente hay muchos transmisores inalámbricos y dispositivos receptores disponibles para medición de temperaturas de forma que casi cualquier aplicación puede beneficiarse de su uso. En cualquier caso, es interesante que echemos un vistazo a la oferta disponible.

Opciones de transmisión

Los sensores de temperatura usan comúnmente termopares y RTDs (detectores de temperatura resistencia). Los diversos tipos de unidades de transmisión disponibles manejarán casi cualquier tipo o modelo, y, dependiendo de los obstáculos y otros factores que afectan la transmisión, pueden tener rangos de hasta 120 metros. Los dispositivos de transmisión más simples, como los conectores termopares inalámbricos, aceptan sensores enchufables y transmiten los datos a un dispositivo receptor a intervalos programables de 5 segundos a 1 minuto. Además de lecturas de temperatura, estas unidades transmiten información del status de la batería que ayudará a asegurar que la sustitución de la batería se hace a tiempo y previene de esta forma situaciones de caída inesperada del sensor. Para aplicaciones exteriores o condiciones ambientales duras, puede usarse un transmisor NEMA inalámbrico. Estos dispositivos transmiten los mismos datos que las envolventes standard, pero tienen una batería mucho más larga (hasta tres años), ya que pueden instalarse en localizaciones de acceso difícil o remoto. Un sellado protege las conexiones de sensor internas contra las inclemencias climáticas. Cuando estos sensores trabajan en ambientes líquidos o corrosivos, el termopar o dispositivo sensor RTD a menudo necesita ser protegido. En tales casos, una sonda, que encierra el dispositivo sensor en un tubo o carcasa protector, es comúnmente usado. Para estas aplicaciones, un transceptor de sonda de sensor inalámbrico, integra el transmisor inalámbrico con la sonda en una única unidad.

Los receptores se vuelven sofisticados

Si bien las opciones de transmisión inalámbricas para los sensores de temperatura es una estrategia útil, representan solamente la mitad de la historia. La innovación en los receptores trae nuevas capacidades para medir y controlar el proceso. A continuación mostramos algunos ejemplos que muestran las capacidades disponibles.
  • Los receptores más comunes se conectan a un pc mediante un puerto USB. El software auxiliar muestra la lectura de cada canal, así como el tipo de sensor, designador o descripción del sensor, temperatura ambiente, unidades, resistencia de la señal y condición de la batería. Las alarmas de baja y alta temperatura se muestran como alarmas parpadeantes de color rojo. Los datos pueden salvarse a un archivo para representarse gráficamente y analizarse.
  • En aquellos procesos en los que es necesaria una señal analógica para proporcionar retroalimentación al proceso a un controlador o PLC, los receptores incluyen una salida analógica para un canal.
  • Los receptores inalámbricos permiten control ad hoc usando un pc desde cualquier localización que tenga una conexión a internet. Adicionalmente para permitir que los datos se vean desde más de una localización, se elimina cualquier restricción a la distancia del punto de control o centro de control de los sensores de temperatura que se están controlando.
  • En aquellas situaciones en las que es deseable un control remoto, pero la máquina u operador de proceso necesita acceder a la lectura localmente, se utiliza un medidor en un panel inalámbrico para realizar esta función. Estos receptores basados en web requieren también un escáner inalámbrico que muestra la salida de hasta 8 sensores.
Bibliografía: Wireless devices deliver great benefits for temperature monitoring. Omega Engineering.

13 agosto 2009

Turbulencias en la logística europea

Como en el mercado de Estados Unidos, el tráfico de cargas aéreas europeas ha experimentado un serio retroceso debido al colapso de los mercados financieros, la mundial y los altos precios de los combustibles. De acuerdo con las estadísticas de International Air Transport Association (IATA), los operadores de transporte europeos han visto declinar el transporte de cargas en un 23,5 % en abril en comparación con los niveles del año anterior; y se esperan unas pérdidas de 1.800 millones de dólares debidas al colapso de la demanda de servicios Premium en todos los mercados servidos por los operadores de transporte de la región.
El transporte que era a niveles asombrosamente bajos. Según IATA, lo peor puede haber pasado pero no hay indicios de recuperación inminente. Mejorar la eficiencia es el reto del año 2009, para un retorno previsto del crecimiento a comienzos de 2010.

Los volúmenes de carga caen en la mayoría de las aerolíneas europeas

La línea de fondo es bastante clara en esta etapa: todos los operadores han sido golpeados duramente por la recesión económica e informan sobre caídas en las cargas.

Air France-KLM, el mayor transportador de cargas aéreas de Europa, informó sobre una profunda caída en los volúmenes de cargas, estimada aproximadamente en un 18 % respecto al año previo. Ya que las condiciones de la primera mitad del año son inciertas, el grupo planea una reducción del 11 % en capacidad de carga para el verano 2009. El principal competidor de KLM, Lufthansa, se ha deslizado en rojo tanto en pasajeros como en cargas. Informó unas pérdidas de operación de 44 millones de euros, en contraste con un beneficio de 172 millones en el mismo periodo del año anterior.
El segmento de carga de Lufthansa ha sido especialmente golpeado por la situación económica, con una caída del 23 %. Especialmente afectado ha sido la caída en la demanda de la industria automotriz. Así y todo, Lufthansa sorteo las condiciones adversas gracias a la sistemática de ventas, capacidad, y gestión de costes.
La tercera compañía de transoporte más grande de Europa, British Airways World Cargo, también informó una caída en el negocio de cargas cuando el tráfico de cargas cayó un 9,5 % en mayo respecto al año anterior. El cuarto trimeste en particular registró una caída muy fuerte en volúmenes, con una caída de 15,5 % desde los niveles de finales del año pasado. También ha sido el último año un gran desafío para Cargolux, la línea de carga más grande de Europa. La compañía acabó el año con un beneficio operacional de 55 millones de dólares.

Batalla de fusiones y adquisiciones

Con las concentraciones de mercado actuales, los grandes transportadores están aprovechando para adquirir acciones a bajo coste de las compañías más pequeñas que se encuentran con problemas.

Por ejemplo, Austrian Airlines (AUA), emprendió un nuevo futuro con Lufthansa. El transportador alemán, que también posee Swiss International Airlines, acordó comprar el 41,56 % de las acciones de la compañía Austrian Airlines AG, propiedad de Österreichische Industrieholding AG (ÖIAG).

Bibliografía: Special European Logistics Report: Turbulence over Europe

Refrigeración, seguridad y calidad de los alimentos


Un nuevo artículo sobre refrigeración industrial, esta vez centrándonos en la preservación de la calidad del producto refrigerado y en las consideraciones de diseño que debemos tener en cuenta en equipos de refrigeración para prevenir problemas sanitarios.
.
Historia de la refrigeración

Un refrigerador es una de las piezas más importantes de los equipos de las cocinas. Estas unidades eléctricas son comunes hoy en día tanto para uso doméstico como industrial. Ya hemos olvidado que un refrigerador fue una vez poco más que una caja con un bloque de hielo usado para suministrar una fuente independiente de aire frío. En tiempos prehistóricos, el hombre encontró que su caza duraría más tiempo sí se almacenaba en una fría cueva o en la nieve. Comprendió que la temperatura fría mantendría la caza durante más tiempo. Más tarde, el hielo se guardaba en el invierno y se usaba en el verano.

La etapa intermedia en la historia de la refrigeración llegó cuando a la comida fría se le añadían químicos como nitrato de sodio o potásico al agua causando que la temperatura cayese. El enfriamiento del vino vía este método fue registrado en 1550, cuando se usó por primera vez el término refrigerar. La evolución a la refrigeración mecánica at. A la refrigeración mecánica, un compresor con refrigerante, no se llegó hasta el último cuarto del siglo XIX.

Refrigeración y seguridad alimentaria

La ciencia de la refrigeración continúa desarrollándose. El cambio más radical vino en 1996, cuando se cambiaron los refrigerantes permitidos. Los viejos refrigerantes conocidos por la mayoría de la gente como “freon”, fueron reemplazados por HFC 134a, un refrigerante menos nocivo con el ozono y un refrigerante menos nocivo pero suficientemente efectivo para mantener la comida fría.

Importancia de la refrigeración

La refrigeración ralentiza el crecimiento bacteriano. Las bacterias existen en cualquier lugar de la naturaleza. Están en el suelo, agua, aire, en los alimentos y la comida. Cuando tienen nutrientes, humedad, y temperaturas favorables, crecen rápidamente, incrementándose en número hasta tal punto que algunos tipos pueden causar enfermedades. Las bacterias crecen rápidamente en el rango de temperaturas que va de 4,5 ºC a 40 ºC. Algunas bacterias doblan su número en tan poco como 20 minutos. Consecuentemente, un refrigerador que mantenga la temperatura por debajo de 4 ºC protegerá la mayoría de las comidas.

Tipos de bacterias y alimentos refrigerados

Hay dos familias completamente diferentes de bacterias: las bacterias patógenas, un tipo que causa enfermedades transportadas por los alimentos, y bacterias spoilage, que causan el deterioro de los alimentos y desarrollan olores, sabores y texturas desagradables. Las bacterias patógenas pueden crecer rápidamente en la zona de peligro pero generalmente no afectan al sabor, olor, o apariencia de la comida. En otras palabras, uno no puede decir que un patógeno está presente. En otras palabras, la bacteria spoliage puede crecer a bajas temperaturas, tales como las del refrigerador. Eventualmente pueden causar que la comida desarrolle mal sabor u olor. La mayoría de las personas evitará comer alimentos afectados por estas bacterias, pero si lo hacen probablemente no enfermen. Se trata de un asunto más de calidad que de seguridad:
  • La comida que se ha dejado largo tiempo en un mostrador puede ser peligroso comerla, pese a que pueda tener buena apariencia.
  • La comida que se ha almacenado durante largo tiempo en un congelador o refrigerador puede aparentar mala calidad, pero en la mayoría de los casos nadie parecerá enfermo.
Temperaturas de refrigeración seguras

Por seguridad, es importante verificar la temperatura del refrigerador. Los refrigeradores se mantendrán a una temperatura de 4,5 ºC o inferior. Para asegurarlo debe mantenerse un termómetro en el refrigerador que controle la temperatura. Esto puede ser crítico en caso de caída de energía. Si la energía vuelve y la temperatura no ha caído de 4,5 ºC, la comida seguirá siendo segura. Si la comida se mantiene a una temperatura de más de 4,5 ºC durante más de dos horas, entonces no debe ser consumida.

Manipulación segura de comida para refrigeración

Puede colocarse comida caliente directamente en el refrigerador o puede enfriarse rápidamente en baños de agua fría o hielo antes de refrigerar el producto. Cubrir las comidas ayuda a retener la humedad y las previene de captar el olor de otras comidas.

Si la comida se mantiene en recipientes grandes como las sopas o los guisos, deben dividirse en pequeñas porciones y colocarse en contenedores pequeños antes de refrigerarse.

Colocación de la comida

La temperatura del refrigerador será de 4,5 ºC o menos, y así el almacenaje será seguro para todas las comidas. La carne cruda, aves y productos del mar deben estar sellados para no contaminar otras comidas.