30 octubre 2009

Mejorando la capacidad de almacenaje en las baterías ión-litio

Las tecnologías de almacenamiento de energía de alto rendimiento para baterías de teléfonos móviles o la industria de automoción están un paso más cerca. Investigadores de Graz University of Technology han desarrollado un nuevo método que utiliza baterías de ión litio y silicio. Su capacidad de almacenaje es diez veces más alta que las de sustrato de granito que se han usado hasta ahora, y prometen considerables mejoras para los usuarios. El nuevo descubrimiento – que viene a la luz del proyecto de la EU “NanoPoliBat” se han sometido recientemente a la oficina de patentes por el grupo de investigación en co-opearación con su partner Varta Microbattery. Los sistemas de almacenamiento de energía son cada vez más poderosos, y progresivamente se vienen solucionando problemas de almacenamiento que han sido inadecuados desde hace mucho tiempo. La nueva revolución que está triunfando es la de materiales de almacenamiento para baterías de ión-litio. Las últimas investigaciones vienen desarrollando tal material de sustrato para conseguir reacciones electromecánicas a bajo precio. .
Gel de silicio en grafito. .
En los procesos últimamente desarrollados, los investigadores utilizan gel conteniendo silicio y lo aplican al material de sustrato de grafito. De esta forma el grafito trabaja como un amortiguador, asimilando os grandes cambioe en volumen del silicio durante la admisión y transferencia de iones de litio. El silicio tiene una capacidad de almacenamiento diez veces mayor que las de grafito hasta ahora usadas comercialmente. El nuevo material puede de esa forma almacenar más del doble de cantidad de iones litio sin cambios en la batería durante su vida útil. Este método es mucho más barato que los hasta ahora utilizados en los que el silicio se separa en fase de gas. El desafío actual queda en la pobre densidad de almacenamiento en el contra electrodo el conjunto de la batería, algo sobre lo que se está actualmente investigando intensamente. .
Bibliografía: Improving the storage capaccity of lithium-ion batteries. AZoM News

29 octubre 2009

Un sensor que detecta el miedo y sus aplicaciones


La revolución de los sensores no deja de sorprendernos día en día, pues lo cierto es que el despegue de esta tecnología es tal que sus aplicaciones innovadoras están causando una auténtica revolución en la energía electrónica.

Hoy hablamos de una aplicación singular de los sensores, y es porque se acaba de descubrir un sensor que tiene la capacidad de oler el miedo humano e identificar de esta forma terroristas en controles rutinarios.
El dispositivo ha sido desarrollado por la universidad de la City de Londres, mediante un proyecto de investigación que estudiaba un sistema sensor que pueda detectar la firma química única de la feromona del miedo, valorando la tensión de un individuo e interpretándolo en contextos de seguridad crítica. El primer dispositivo se basa en un sistema de absorción laser mientras que áreas posteriores de investigación tratan de buscar un dispositivo portátil de fibra óptica.

Las relaciones entre el miedo y las feromonas son un hecho conocido desde hace años, pero hasta ahora no se había diseñado ningún dispositivo capaz de detectar estos cambios en las feromonas.

Las fases actuales de investigación en el proyecto buscan obstáculos potenciales en el dispositivo, tales como los efectos del perfume y las varianzas en la producción de feromonas.

Si bien el trabajo hasta ahora es todavía teórico, si el estudio de factibilidad es exitoso, entonces el desarrollo de los detectores de olor pueden empezar a comercializarse en dos o tres años.

Bibliografía: Sensor to detect fear pheromone. October 2009

Otra noticia sobre la caída en los precios de los paneles fotovoltaicos

Applied Materials, Inc., ha anunciado hoy que ha bajado significativamente el coste de los paneles fotovoltaicos de su línea SunFab Thin Film. Siguiendo con la trayectoria de recortes agresivos de costes, Applied ha introducido eficiencias claves que reducen el coste de materiales en un 22 %.

Adicionalmente, los paneles de SunFab usando estos nuevos materiales y procesos se ha obtenido certificación IEC para conseguir eficiencias de conversión hasta el 9,7 %.

Este nuevo hito permite seguir avanzando en líneas de productos cuyo precio es inferior a 1$/vatio.

Control avanzado de procesos en plantas de generación de energía

En el mundo de la fabricación, la palabra reajuste es sinónimo de "pérdida de producción". En otras palabras, plantas – o al menos partes de las plantas – deben cerrarse para que el equipo se actualice. Y maquinaria ociosa significa menos producción.
Quizás hasta ahora este ha habido estos temores en la industria de generación de energía, donde la programación de una parada forzada significa menos electricidad, vapor o calor para la planta de producción. Sin embargo, el reajuste de los equipos es una parte importante de los trabajos actuales debido a que las compañías de generación de energía en todo el mundo están embarcadas en el cumplimiento de las necesidades de expansión de la base industrial global a la vez que se contienen las emisiones de gases de efecto invernadero, y siempre con infraestructuras obsoletas. Es fácil ver lo complicado que puede llegar a ser el uso de estos generadores.
Si nos fijamos en el mundo del control avanzado de procesos, pueden encontrarse alternativas viables para cumplir las regulaciones gubernamentales en las emisiones de gases de efecto invernadero a la vez que se incrementa la producción de energía, calor y valor sin necesidad de grandes revisiones del proceso. Específicamente, muchas plantas de generación en industrias de sectores tales como el químico, refino, pulpa y papel han asumido la integración de subsistemas de planta con sistemas de control distribuido (DCS) para maximizar la productividad y mejorar la eficiencia total. Aplicando ese mismo concepto al mundo de la generación de energía con el propósito de reducir las emisiones de de gases de efecto invernadero pueden muy bien ayudar a la producción de los generadores de vapor y electricidad.

Avanzando en el proceso

Ya que la utilización de los equipos de generación de energía se incrementa, lo hacen igualmente las emisiones de gases de efecto invernadero. Para combatir este problema y reducir las emisiones de NOx, las compañías eléctricas están empezando a utilizar tecnologías de soluciones de energía avanzadas.

NOx es un sub-producto de los procesos de combustión y se incrementa la temperatura más caliente usada en el proceso. Cuando se combina con compuestos orgánicos volátiles, NOx puede crear polución de smog o polución de ozono a nivel del suelo y causar problems respiratorios a los humanos.
Para cumplir estas regulaciones GHG, las compañías de generación de energía deben reacondicionar sus calderas, instalar nuevas calderas o realzar los procesos de producción.
Reajustar las viejas calderas o instalar las nuevas puede ser problemático. Esto es debido a que no es practicable desconectar la generación de la planta cuando la demanda de electricidad continúa creciendo.
En todo tipo de operaciones de planta industrial, hay numerosos factores fijos que afectan las operaciones totales de la planta y requieren medidas de optimización efectiva. Estas incluyen diseño de caldera, acondicionamiento de agua, tipo de quemador, condiciones de vapor de diseño y controles ambientales que capturan y quitan contaminantes. Optimizando la operación de los subsistemas de plantase tienen en consideración estos parámetros múltiples que pueden mejorar la eficiencia y utilización de equipos, junto con el cumplimiento de los standard ambientales. Esto puede hacerse solamente con software en vez de tener que reemplazar o reajustar costosas inversiones de capital.
Este software de eficiencia energética avanzado implica la integración de tecnologías existentes con la arquitectura DCS existente, incluyendo instrumentos de campo, SCADA, historización de planta y otras funciones de control avanzado tales como software de simulación y control de procesos avanzados y aplicaciones de optimización.
Con este tipo de soluciones de energía avanzados, las compañías eléctricas son capaces de centralizar las funciones de control de sus plantas en esta plataforma de software modular. Dentro de esta estructura de operación central los operadores tendrán flexibilidad para:
  • Controlar de la temperatura de la llama durante los procesos de combustión, reduciendo el uso de combustibles para alcanzar los mismos números de producción de energía, mientras que se consigue reducir las emisiones de gases de efecto invernadero. Esto últimamente resulta en un control de la combustión mejorado y un sistema que mejore la eficiencia térmica de las calderas individuales.
  • Conseguir un equilibrio continuo entre vapor producido y consumido. Este control de presión maestro consigue controlar la entrada de calor en las calderas, además del flujo de vapor total en cada calentador.
  • Optimización del rendimiento de la planta mediante la distribución económica de carga entre las calderas. Esto mejora la utilización de vapor para la generación de electricidad, proceso y/o necesidades de calentamiento. También expande la eficiencia de la caldera y flexibilidad para la distribución total de la entrada de calor entre calderas y mantener un amplio rango de producción de vapor.
  • Estabilizar la presión de vapor y prevenir paradas de caldera y turbina garantizando un continuo equilibrio entre el vapor producido y consumido. Esto mejora la eficiencia de la caldera, incrementa la vida y mejora la eficiencia de generación.
  • Mejorar el rendimiento de la planta mediante un toolkit que mejore la visibilidad de las operaciones de producción para controlar todos los indicadores de rendimiento clave (KPIs). El conocimiento de los KPIs permite al personal de planta solventar problemas antes de que ocurran, y mejorar la fiabilidad de los activos.
  • Controlar el proceso de generación de energía en tiempo real, junto con compromisos contractuales externos y tasas de consumo internos.

Bibliografía: Applying Advanced Process Control Principles to Power Generation. Automation October 2009

Palabras clave: Advanced energy solutions technology

28 octubre 2009

Control inteligente del consumo de agua, vapor, aire comprimido, gas…

Barcovision ha introducido Energymaster, un sistema que permite controlar el consumo de agua, vapor, aire comprimido, gas y otros tipos de suministros.
Esta plataforma combina los datos de consumo de energía colectados con los datos de producción tales como unidades producidas para generar informes del tipo "Consumo de energía específico" o "Línea de Características de Rendimiento".
El ahorro en costes de energía es a menudo fácil de alcanzar, probado que se conocen las pérdidas.
Los medidores de energía y consumo pueden conectarse a las unidades de datos ya instaladas en las máquinas de producción.
Con la introducción de tres medidores de consumo de energía, Barcovision dice que ha simplificado el consumo de energía a sus clientes.
El software y los medidores pueden comprarse del mismo suministrador. Los medidores están diseñados para facilitar la interface con unidades de datos Barcovision. No necesitan un display y claves para iniciar la configuración e inicialización; todo ello se hará a través del display de la unidad de datos y teclado de la unidad de datos.
El sistema utiliza dos tipos de medición de energía activa y reactiva: la primera con una salida de pulso, la otra con una interface serie Modbus.
El tercer tipo permite un análisis completo de consumo de energía para la instalación en paneles de distribución de energía.
Con este último tipo, hasta 31 medidores de energía pueden colocarse en una línea serie conectada a una unidad de datos.
Barcovision ha introducido también un medidor de consumo para aire comprimido. En la mayoría de las instalaciones sólo dos agujeros tienen que ser taladrados en la tubería, usando un medidor especial.
Fijando el medidor con dos sondas en los agujeros se consigue que la tubería esté bien ajustada y lista para trabajar.
Energymaster software trabaja en conjunción con el sistema de ejecución de fabricación Barcovision, tal como Plantmaster, Weavemaster y Sedomaster, y puede también trabajar solamente para controlar energía en modo estacionario.
De estas unidades de datos, los datos del medidor se transmiten a un servidor de PC vía una red wireless. Bibliografía: Energymaster monitors power and air consumption. Manufacturing October 2009

Herramientas de simulación y modelización para reducir las paradas en plantas energéticas

En una planta energética el tiempo es realmente oro. Las inversiones son tan grandes que los intervalos de parada cuestan mucho dinero a la propiedad.
Nuevas herramientas de simulación están utilizándose en las plantas nucleares de estados unidos para conseguir disminuir el tiempo de parada. Este software se utiliza para gestionar operaciones críticas como la sustitución de generadores de vapor, cabezales de cierre de recipientes del reactor, y mecanismos de transmisión de elementos durante paradas programadas. El coste de estas actuaciones en una central nuclear puede ser del orden de los 500 millones de dólares. Una de las características importantes de estas paradas es la absoluta necesidad de que cada aspecto se considere en el plan del proyecto. Para este fin, se ha desarrollado modelización digital y simulación virtual, combinado con scanner en el interior del edificio de contención del reactor, que permite planificar el trabajo de forma efectiva en costes.
Con tanto dinero en juego, es muy fácil justificar la inversión en tecnología de modelización y simulación para proyectos de mantenimiento y reconstrucción. Una planta puede ponerse online con más rapidez cuando la tarea de secuenciación se ejecuta mediante una mejor planificación. Lo mismo es verdad cuando se descubren pronto los retrasos potenciales, preferiblemente durante la fase de planificación, y se evitan cuando el coste e impacto de cualquier cambio es mínimo.
Combinación de herramientas digitales
Las plantas de energía nuclear tienen una excelente gestión de procesos y gestión de configuración de planta. Pero esto se alcanza con un gran coste y muchos recursos consumidos. Crear una planta visual con herramientas scanner y PLM integrará sistemas de información, sistemas de control de acceso y visualización, simulaciones logísticas y analíticas, comunicación con procesos de planta, e interface fácil con suministradores, contratistas y otras entidades.
Ya que las centrales nucleares tienen en general más de 20 años no se dispone de herramientas 3D, por lo que no es posible encontrar modelos 3D para estas plantas. Los modelos 3-D pueden obtenerse inteligentemente de dibujos de ingeniería 2-D usando técnicas tales como scanner laser y sketch-tracing. Hasta ahora, los propietarios de generadores nucleares han planificado las paradas de planta siguiendo conceptos tradicionales como reuniones y conferencias en los que se usan dibujos y otras herramientas de ayuda. Estos métodos no son efectivos en costes.
Bibliografía: Power: Moedling & Simulation: Modeling and Simulation Tools Reduce Plant Outage Duration. Power November 2009.

27 octubre 2009

La mayor amenaza a la recuperación – el precio del petróleo

El cartel petrolero de la Opec está comenzando a conseguir sus objetivos sobre el precio del petróleo.
El ministro angoleño del petróleo, José Botelho de Vasconcelos, reconoce que $75-$80 el barril es el nivel óptimo tanto para consumidores como para productores. Pero también hay preocupación, si el precio del petróleo supera nuevamente los 100 $ el barril, los miembros de la OPEC están abiertos a abrir un poquito más el grifo.
La Opec sabe que si el precio se descontrola nuevamente la historia de los dos últimos años muestra que el incremento de los precios puede profundizar en una nueva catástrofe para la economía mundial.
Pero veamos realmente qué supone un precio de $75-$80 dólares. Después del huracán Katrina el petróleo alcanzó cotas peligrosas, alcanzó los $70. Es por tanto impresionante que los vendedores de petróleo se las hayan ingeniado para convencernos que $75-$80 dólares es un precio adecuado. Realmente es un precio peligroso para el mundo que no produce materias primas.

¿Por qué la OPEC está preocupada por la subida del precio del petróleo?

Pero ahora la OPEC está más preocupada que nunca. ¿Por qué? Los países productores independientes y los no productores se ven incentivados a buscar fuentes alternativas de energía cuando el petróleo sube de precio. La inversión en energías renovables ha sido golpeada por la recesión, pero pronto resurgirá de nuevo si como todo parece indicar el petróleo se sitúa nuevamente en el entorno de los $80 dólares. Es por ello que con el precio equilibrado, la OPEC generará mucho beneficio pero no es lo suficientemente alternativo como para alentar seriamente las inversiones en energías renovables. Por primera vez, las inversiones en energías renovables se están viendo como una amenaza seria y ya no se habla despectivamente de los "molinillos" como ocurría hasta hace muy poco tiempo.

Pero las conclusiones de algunos analistas van más allá. Si el precio del petróleo continúa elevándose en las próximas semanas, habrá peligro de estancamiento en la recuperación económica. Pero si la recuperación económica se frena, el precio del petróleo caerá por supuesto nuevamente.
Los altos precios son la semilla de su autodestrucción, es la forma como ve ahora la situación el cartel del petróleo y por ello busca sobre todo el equilibrio.
Pero el problema es que la OPEC sólo puede controlar los precios en el medio plazo, y no tiene influencia en el corto plazo en el que se mueven los flujos de liquidez que condicionan los precios..
Las burbujas que origina el petróleo son diferentes a otras como la inmobiliaria, ya que la escalada del petróleo acaba dañando también la economía al impulsar los precios hacia arriba y provocar endurecimiento de las políticas monetarias.
Hay bastantes posibilidades de que más pronto que tarde el petróleo alcance nuevamente los $100, y ello casi con certeza alejará la salida de la recesión más allá del 2010 para aquellos países que están a punto de salir del bache económico.

Bibliografía: The biggest threat to the recovery – the soaring oil price. Moneyweek October 2009.

Se presentan hoy en Estados Unidos las nuevas medidas de estímulo a la inversión en el sector energético

Alrededor de 18 millones de hogares se verán beneficiados en Estados Unidos con incentivos para incorporar medidores inteligentes. Es una medida más del ambicioso plan de eficiencia energética que el presidente Obama viene impulsando.
Los medidores, que están diseñados para comunicar efectivamente compañías distribuidoras y aparatos, ayudarán a los consumidores a gestionar la electricidad más eficientemente.
Los 18 medidores que van a instalarse representan aproximadamente el 13 5 de todos los medidores de la nación. En último término, la administración espera distribuir 40 millones de medidores inteligentes en los próximos años.
Los medidores inteligentes son parte del gran esfuerzo del gobierno para actualizar la obsoleta red de distribución de la nación. El gobierno anunció 3.400 millones de dólares para ayudar al país a moverse hacia las llamadas redes inteligentes. Las generadoras aportarán otros 4.700 millones de dólares en fondos para conexión de redes.
Según la Casa Blanca, estas inversiones pueden reducir el uso de electricidad en un 4 % al año.
El dinero es parte de casi 100.000 millones de dólares con los que el gobierno estimulará una gran variedad de proyectos de energía.
Otros proyectos anunciados este martes incluyen la modernización de subestaciones eléctricas y centros de transmisión.
Los nuevos estímulos anunciados hoy alcanzarán a unos 100 proyectos en 49 estados y se espera la creación de unos diez mil puestos de trabajo en todo el país. La Casa Blanca ha presupuestado el mayor esfuerzo de modernización de la red de distribución en la historia del país.
Los fondos anunciados hoy son solamente una fracción de lo que se espera sea la construcción de las nuevas líneas de transmisión, subestaciones y medidores computerizados, y dispositivos de almacenamiento en edificios por una red de distribución moderna.

Más en CNN

Nueva tecnología recicla CO2 y lo transforma en combustible

El recorte de las emisiones de dióxido de carbono es un tópico caliente en discusión. Algunas compañías han desarrollado tecnologías que extraen chorros de dióxido de carbono gaseoso y lo inyectan en el subsuelo.
Carbon Scinences, una compañía tecnológica ubicada en California, está trabajando en un proceso que extrae CO2 y agua y lo transforma en un hidrocarburo como el que se utiliza en los motores de gasolina.
La nueva tecnología es una versión a pequeña escala de lo que hace la naturaleza para producir los hidrocarburos. Las plantas absorben CO2 con el tiempo. Cuando se mueren y entierran, el CO2 se mezcla con agua durante millones de años y crea los hidrocarburos.

La captura del carbón y el proceso de reciclaje

El propósito de esta tecnología es realizar la misma actividad pero acelerando el proceso de forma rápida y eficiente.

Desgraciadamente, las encimas necesarias para lograr estas reacciones generalmente no duran demasiado, trabajan lentamente y son caras de reemplazar. Ya que el proceso es lento, el volumen de los hidrocarburos producidos por el precio de las encimas no hace el proceso comercialmente viable. Sin embargo, Carbon Sciences crea un reactor a nano-escala donde las encimas pueden vivir más de lo normal, y por lo tanto crean más hidrocarburos – lo cual indica una mayor capacidad para producir combustible. Este puede ser el primer paso para hacer versiones a gran escala que puedan crear grandes cantidades de combustible para uso comercial.
Según los investigadores esta tecnología puede ser viable comercialmente.
Si bien sigue habiendo muchos detractores que cuestionan esta tecnología, los investigadores que la han desarrollado apuestan por la misma como un sistema de reciclaje del carbono que cambiará el terreno de juego. "The amount of CO2 available is extraordinary," he said. "(Energy Secretary) Dr. Steven Chu said that, around the world annually, 6 billion tons of coal is used, which equals about 18 billion million metric tons of CO2 and that's just from the coal industry."
Elton said he believes the company's new carbon recycling technology will change the playing field. "If we are able to do this and bring it to the large marketplace, this technology is going to be the most powerful, sustainable technology available in the world," he said.
.
Bibliografía: New technology recycles CO2 in fuel. Power Engineering magazine. October 2009

Sobre cómo el euro fuerte ayuda a reequilibrar la economía mundial

Con el euro a 1,50 dólares, un asesor del presidente francés, Nicolas Sarkozy, se ha lamentado de que la fortaleza del euro es un desastre para la industria europea.

No deja de ser sorprendente la fortaleza del euro si pensamos que en 2001 había caído un 30 % de su cotización inicial y se valoraba a 0,83 $.

El euro se ha convertido en pocos años en una moneda codiciada y de ahí su fortaleza respecto al dólar y la libra esterlina. Pero los líderes europeos están preocupados por las dificultades que el ascenso del euro está suponiendo para los exportadores.

Pero otra forma de ver las cosas es que la moneda única ha hecho desaparecer los incentivos para devaluar las monedas, y ahora los exportadores sólo dependen de medidas disciplinarias que ayuden a la zona euro a elevar su productividad. Ahora no es fácil exportar, y ello exige mucha más preparación y esmero de lo que ocurría hace unos años.

Pero otro efecto que se viene produciendo como consecuencia de la apreciación del euro es que la zona euro ayudará a reequilibrar la economía mundial, lo cual es una demandad de los países de la zona euro que pertenecen al G20.

Noticia original en Financial Times.

Cómo la radiofrecuencia puede proporcionar energía a las redes de sensores inalámbricas

Mucho se ha escrito sobre los beneficios de los sensores inalámbricos y el potencial que proporcionan estos dispositivos. Desechables, baterías de larga vida continuarán usándose en las redes de sensores inalámbricos.
Las plataformas sensoras permiten a los sensores proporcionar una respuesta altamente selectiva que responda a condiciones variables y todo ello sin baterías. La tecnología de sensores de hoy supera las limitaciones actuales tales como selectividad de respuesta inadecuada y la necesidad de disponer de fuente de energía. Sin baterías, los nuevos sensores pueden diseñarse con tamaños más pequeños que una moneda y a muy bajo coste.
Las nuevas tecnologías en desarrollo toman ventaja de una gran variedad de fuentes de microenergía, que medida en milivatios, puede usarse por los sensores. Entre estas fuentes de energía podemos menciona la solar, vibraciones, térmicas y la energía RF. Para cualquier instalación específica habrá diferentes posibilidades en la tecnología de generación de energía utilizada, pues en general todas son capaces de utilizar las aplicaciones de sensores inalámbricas. Esta tecnología es factible como consecuencia del microconsumo de los actuales sensores.
Energía de las ondas de radio
La energía RF puede convertir ondas de radio en potencia DC. Esto es posible si se reciben ondas de radio con una antena, se convierte la señal, y se condiciona la energía de salida.
Hay múltiples aproximaciones sobre cómo convertir una señal de RF en potencia DC (ej. Mono-etapa vs. Multi-etapa) dependiendo de los parámetros de operación deseados, tales como potencia, eficiencia o voltaje. La cantidad de energía disponible para el dispositivo final depende de varios factores incluyendo la fuente de energía, distancia de la fuente, ganancia de la antena, y eficiencia de conversión. La eficiencia de conversión de la energía RF recibida a DE se encuentra típicamente entre el rango 50 % - 75 %.
Bibliografía: RF Energy harvesting enables wireless sensor networks. Sensors. October 2009

26 octubre 2009

Los secretos de los adhesivos super fuertes aplicados a los plásticos

La sustitución de plásticos por partes metálicas es un tópico caliente en estos días. Los fabricantes sustituyen el metal por precio para ahorrar costes, disminuir pesos y mejorar la eficiencia energética. Igualmente, los plásticos se usan para hacer carcasas resistentes, de moldeado fácil, peso ligero, y también para fabricar componentes internos.
La forma preferida de ensamblar piezas de plástico es mediante conexiones adhesivas en vez de fijaciones mecánicas. Las conexiones adhesivas son continuas y a prueba de pérdidas. Y resisten la corrosión mejor que otros métodos de ensamblaje. La conexión continua también resiste tensiones concentradas mejor que las uniones mecánicas o soldadas por puntos. Adicionalmente, las conexiones adhesivas resisten mejor las vibraciones y simplifican el ensamblaje cuando una conexión simple reemplaza varios sistemas de fijación mecánicos.
Sin embargo, hay algunos trucos que deben tenerse en cuenta para conectar plásticos. Todos los sustratos se desengrasarán y, típicamente se erosionarán ligeramente antes de la conexión. Pero la forma de conseguir máxima resistencia a largo plazo al deterioro es un pretratamiento químico o electrolito, particularmente en superficies termoplásticas o termoestables.

Sustratos poliméricos

Las piezas moldeadas, fundidas y laminadas hechas de plásticos termoestables como el epoxy reforzado con vidrio (GRE), plástico reforzado con carbono y vidrio (GRP y CFRP), y compuestos moldeados en láminas (SMC) usualmente se conectan sin dificultad. Por supuesto las superficies a unir deben estar libres de toda liberación residual o suciedad antes de aplicar el adhesivo. Abrasión con lija, chorreado de arena, y limpieza con un disolvente tal como acetona son todas buenas prácticas.

Los termoplásticos, por contraste, son más difíciles de conectar. Cada tipo de plástico – ABS, policarbonato (PC), cloruro de polivinilo (PVC), polipropileno (PP), polietileno (PE), polimetil metacrilato (PMMA), poliamida y polietertercetona (PEEK) – pueden variar considerablemente en propiedades que determinan la resistencia de un enlace.

Los sustratos metálicos exigen una mayor energía superficial que los polímeros. Como resultado, es fácil la unión con epoxies. A la inversa, los polímeros no unen bien porque su energía superficial es ligeramente más baja que la de los adhesivos epoxis

Preparación de superficies con disolventes

Los disolventes son la forma más simple de preparación superficial y es ideal para eliminar ceras, aceites y otros contaminantes de peso molecular bajo de los sustratos. La técnica depende de los contaminantes que son solubles en el solvente y del solvente que se está liberando de contaminantes disueltos. Pero algunos solventes no son compatibles con los sustratos poliméricos. Algunos disolventes disuelven termoplásticos o crearán grietas por tensiones en las superficies. Los disolventes counes son acetona, MEX, MIBK, xilene, TCE, etanol, e IPA.

Tratamiento de llama

El tratamiento con llama parcialmente oxida superficies, produciendo grupos polares que elevan la energía de la superficie de los polímeros. Esta técnica usa una llama que trabaja en superficies espesas o perfiles irregulares.

Tratamiento de plasma

Como su nombre indica, usa un plasma creado cargando un gas con una alta cantidad de energía. Los iones y electrones se liberan en el plasma y limpian la superficie de cualquier material que tocan.

Descarga de corona

Trabaja según el principio de plasma de baja presión, pero los eventos tienen lugar en el aire a presión atmosférica. La corona se genera aplicando un alto voltaje (> 30 kV) a frecuencias que van de 9 a 50 KHz.

Tratamiento químico

Trabaja uniendo los sustratos poliméricos mediante la aplicación de un pre-tratamiento químico especializado.

Bibliografía: Secrets of bond strength. July 2008. Machine design

Las comunicaciones inalámbricas en condiciones ambientales adversas

Cuando es necesario transmitir señales largas distancias y el lugar de instalación está expuesto a los elementos, los sistemas con contactos basados en cables alcanzan sus límites muy rápidamente. Un sistema que ha demostrado capacidades en el sector industrial es el wireless InduraNET psystem de Pilz automation Safety LP, ha demostrado su conveniencia para el uso diario.
La tecnología se ha probado en condiciones difíciles como una planta de tratamiento de aguas. Un puente raspador rota alrededor de un tanque de sedimentación secundario. Dos palas quitan los lodos flotantes y la suciedad del fondo del tanque. Al mismo tiempo, una estación móvil sobre el puente colecta mensajes sobre condiciones y fallos potenciales. Estos mensajes se transmiten de forma inalámbrica a la estación de control, a unos 92 metros de distancia, vía InduraNET p (red de radio industrial).
Como ocurre con todas las aplicaciones que usan uniones rotatorias o sistemas de transmisión de anillas deslizantes, los sistemas de comunicación basados en contactos están limitados a los movimientos rotatorios o lineales. InduraNET p se desarrolló para un ambiente industrial agresivo. Por ello sus características distintivas son su robustez y las comunicaciones libres de interferencias, además de alta disponibilidad y capacidad de coexistencia con otros dispositivos inalámbricos.
Una red InduraNET p consiste en una estación base y una estación remota; que permiten comunicaciones bidireccionales. Un máximo de diez redes InduraNET pueden cooperar dentro de un ambiente único. Los cables pre-ensamblados se usan para conectar la base y la estación remota a antenas industriales. En la planta la estación remota se posiciona en la pala; los controles para las transmisiones, bombas y barredores de nieve se emiten vía módulos I/O. La estación de base se localiza en el cuadro de control. InduraNET p no afecta adversamente a ningún otro sistema wireless industrial. Las frecuencias no ocupadas se marcan como no utilizables por un cierto periodo de tiempo. Las antenas compactas permiten comunicaciones inalámbricas eficientes a pesar de condiciones cambiantes en relación a la propagación de las ondas de radio.
InduraNET se usa en conjunción con el sistema I/O universal descentralizado PSSuniversal, que puede procesar señales relacionadas con la seguridad y/o señales de control standard. La configuración de la red standard inalámbrica se almacena en una tarjeta chip, pro lo que la disponibilidad en la planta está asegurada.
Bibliografía: Wireless Communications – Whatever the Weather. Design News. October 2009

La política petrolera de Venezuela

En un mundo en el que el petróleo es cada vez más escaso, los 272.000 millones de barriles de crudo pesado que Venezuela reconoce contienen las arenas de la cuenca del Orinoco parecen una proposición tentadora para los inversores extranjeros. Pero hasta tres veces este año Petróleos de Venezuela (PDVSA), la compañía estatal, ha pospuesto licitaciones de siete bloques en el Orinoco que pueden producir 1 millón de barriles diarios de petróleo sintético. La razón: los términos de la oferta son más rígidas incluso que las propuestas por Brasil (ya de por sí duras), y la incertidumbre es incluso mayor.
El riesgo no es geológico, ya que el petróleo se conoce. Pero las inversiones en refino requieren inversiones de miles de millones de dólares, y la tecnología no estaba aún probada.
China, Rusia e India han expresado interés en los bloques, además de Petrobas de Brasil y otras multinacionales como BP, Chevron, Royal Dutch Shell y Total. Pero dos factores han hecho vacilar a los inversores. La primera ha sido la recesión mundial y la caída del precio del petróleo, y la segunda es el riesgo político.
En los últimos dos años el presidente de Venezuela, Hugo Chaves, ha nacionalizado grandes partes de la economía, incluyendo docenas de compañías de servicios petrolíferos (que todavía están esperando las compensaciones prometidas). Dos gigantes del petróleo – Exxon Mobil y ConocoPhillips – han visto cambios arbitrarios en sus contratos para operar en el Orinoco. Los nuevos contratos propuestos no contienen provisiones sobre disputas arbitrarias.
Pero la sed de petróleo es grande y algunas compañías, especialmente las estatales de países como Rusia y China, cuyos gobiernos son amigos de Hugo Chaves, pueden seguir interesados en las arenas pegajosas del Orinoco.

Bibiliografía: A sticky proposition. The Economist Septembre 5th 2009.

El dólar cae cuando el mundo ve que la recesión se aleja

Los países que tan sólo están afectados por la crisis financiera internacional, entre los que no se encuentra España, ven llegar datos positivos cada vez más sólidos.

Hoy tenemos dos datos indicativos de la nueva situación. Por una parte el dólar sigue cayendo, y por otra los metales suben de precio, y algunos como el cobre golpean ya precios no conocidos en los últimos trece meses.

Para una economía como la española, inmersa en el dolor de los efectos de las burbujas inmobiliarias y de crédito, estos datos son de lo más importantes. Por una parte, si la economía mundial se recupera como parece que está ocurriendo, se abre el camino para que nuestro sector exterior pueda aliviar la pesada digestión de ladrillos que padecemos. Pero por otra parte, si baja el dólar nuestro sector exterior es cada vez menos competitivo. De hecho, en muy pocos productos puede competir España en los mercados internacionales. Esto lo están averiguando aquellos que empiezan a pasar precios al exterior. No es casualidad que la balanza comercial española sea la que arroja unos valores más negativos de todos los países desarrollados (y no desarrollados).

Nuevos tiempos se avecinan, porque la subida de los precios amenaza también con obligar al BCE a subir los tipos de interés.

En conclusión, los españoles tendrán que trabajar mucho más de lo que hasta ahora trabajan si quieren al menos iniciar el camino hacia una recuperación aún lejana.

En efecto, para salir de la crisis hay que trabajar en dos caminos: Mayor austeridad y más trabajo. La austeridad a la que nos referimos es a la de las cuentas públicas, pues las cuentas privadas se hicieron austeras hace unos meses. Lo de trabajar más, pues sólo hay dos formas, bajar los salarios o aumentar el número de horas trabajadas. El segundo sistema es el que parece se está implantando en España (ver por ejemplo aquí), es duro pero es la única forma de conseguir superar la recesión en el futuro.

25 octubre 2009

Gestión de las averías en los parques eólicos

La rápida expansión de la energía eólica en los últimos veinte años ha originado prisas para conseguir lanzar las últimas tecnologías al mercado. Inevitablemente ello ha llevado a que aparezcan problemas de fiabilidad que puedan afectar directamente los ingresos de la granja eólica por paradas no controladas y los costes asociados con las operaciones adicionales y eventos de mantenimiento.
Es una característica de estas nuevas tecnologías que la incidencia de los fallos en los sistemas de control y en la electrónica de potencia es alta en comparación con otras piezas del sistema tales como los generadores. Según datos proporcionados por el Institute of Solar Energy Technology en Alemania, aproximadamente el 54 % de todos los fallos de las turbinas eólicas se deben al control electrónico/sistema eléctrico, sistemas eléctricos y sensores
Esto es también el caso porque al contrario que muchos componentes mecánicos en una turbina eólica, la mayoría de los sistemas eléctricos/electrónicos sólo tienen una única fuente de energía – el OEM. A menudo, por lo tanto, la única opción para los propietarios es comprar piezas de sustitución al OEM. Las piezas generalmente tienen altos costes unitarios y por lo tanto los costes de sustitución de una nueva pieza son tres veces los de sustitución de una pieza existente. Adicionalmente, los problemas con la cadena de suministro pueden originar tiempos muertos dilatados.
Por ejemplo, en 2008 un fabricante de turbinas principal tuvo un fallo en una pieza del controlador de la corriente del rotor. La compañía descubrió que el tiempo para sustituir esa pieza. Eso originó que el operador se viese forzado a comprar piezas adicionales para no romper sus obligaciones contractuales. El coste de una parada no prevista se estimó en 250.000 euros.
Cuando suceden estos problemas es vital encontrar una solución efectiva en costes, pero es sobre todo en fase de diseño cuando debemos valorar el riesgo de fallo y sus consecuencias.

Bibliografía: Adopting a strategic approach to wind turbine repair can pay dividends. Power Engineering. July/August 2009

Aprendiendo a utilizar los sensores capacitivos

Un nuevo artículo divulgativo sobre las aplicaciones que la microelectrónica permite en la industria recurriendo al mundo de los sensores. En esta ocasión hablaremos de los sensores capacitivos y los conceptos básicos que nos ayudarán a utilizarlos.

Los sensores capacitivos miden los cambios en una propiedad eléctrica llamada capacitancia. La capacitancia describe cómo dos objetos conductores con un espacio entre ellos responden a una diferencia de voltaje aplicada a ellos. Un voltaje aplicado a los conductores crea un campo eléctrico entre ellos, causando cargas positivas y negativas para colectar en cada objeto. Si se invierte la polaridad del voltaje, las cargas se invertirán.

Los sensores capacitivos usan un voltaje alternativo que causa que las cargas continuamente inviertan sus posiciones. El movimiento de cargas crea una corriente eléctrica que se detecta por el sensor. La cantidad de flujo de corriente se determina por la capacitancia, y la capacitancia se determina por el área de superficie y proximidad de los objetos conductivos. Los objetos más grandes y más cercanos originan mayores corrientes que los más pequeños o los situados a distancias mayores. La capacitancia también es afectada por el tipo de material no conductivo en el hueco entre los objetos. Técnicamente hablando, la capacitancia es directamente proporcional al área de superficie de los objetos y la constante dieléctrica del material entre ellos, es inversamente proporcional a la distancia entre ellos.

En las aplicaciones sensores capacitiva las típicas, la sonda o sensor es uno de los objetos conductivos y el objetivo es la otra. El tamaño del sensor y el objeto se asumen constantes. Por lo tanto, cualquier cambio en la capacitancia es el resultado de un cambio de distancia entre sonda y objeto. La electrónica se calibra para genera cambios de voltaje específicos de los sensores para los correspondientes cambios en capacitancia. Estos voltajes se escalan para representar cambios específicos en la distancia. La cantidad de cambio de voltaje para una cantidad dada de cambio de distancia se llama sensibilidad. Una configuración de sensibilidad común es 1.0 V/100 µm. Esto significa que por cada cambio de 100 100 µm µm en distancia, el voltaje de salida cambia exactamente 1.0 V. La capacitancia también queda afectada por el tipo de materiales no conductores en el hueco de los objetos. Técnicamente hablando, la capacitancia es directamente proporcional al área de superficie de los objetos y la constante dieléctrica del material entre ellos, e inversamente proporcional a la distancia entre ellos.
.
Enfocando el campo eléctrico

Cuando se aplica un voltaje al conductor, el campo eléctrico emana desde cada superficie. En un sensor capacitivo, el voltaje sensor se aplica al área sensora de la sonda. Para mediciones exactas, el campo eléctrico del área sensora necesita estar contenida dentro del espacio entre el sensor y el objeto. Si el campo eléctrico se permite se extienda a otros objetos – u otras áreas en el objeto – entonces un cambio en la posición de otro ítem se medirá como un cambio en la posición del objeto. Una técnica llamada "guarding" se usa para prevenir que esto ocurra. Para crear un guard, la parte trasera y lados del área sensora se rodean por otro conductor que se mantiene en el mismo voltaje que el área sensora en sí misma. Cuando el voltaje se aplica al área sensora, un circuito separado aplica el mismo voltaje exacto al guard. Debido a que no hay diferencia entre el área sensora y el guard, no hay campo eléctrico entre ellos. Cualquier otro conductor detrás o al lado de la sonda forma un campo eléctrico con la sonda en vez de con el área sensora. Sólo el frente no guardado del área sensora se permite forman un campo eléctrico con el objeto.

Offset error


Offset error ocurre cuando se añade un valor constante al voltaje de salida del sistema. El sistema de medición capacitiva usualmente se pone a cero durante la configuración, eliminando cualquier desviación offset de la calibración original. Sin embargo, el error offset cambia después de que el sistema se pone a cero, introduciendo un error en la medición. El cambio de temperatura es el factor primario del error offset.
La sensibilidad puede variar ligeramente entre dos puntos cualquiera de datos. El efecto acumulado de esta variación se llama error de linealidad. La especificación de linealidad mide cómo varía la salida respecto a la línea recta.

Para calcular el error de linealidad, los datos de calibración se comparan a la línea recta que mejor se adapta a los puntos. Esta línea de referencia recta se calcula de los datos de calibración usando el ajuste de mínimos cuadrados. La cantidad de error en el punto de la línea de calibración se aleja de esta línea ideal en el error de linealidad. El error de linealidad se expresa usualmente en términos de porcentaje respecto a la escala completa. Si el error en el peor punto es 0,001 mm y el rango en la escala completa de calibración es 1 mm, el error de linealidad será 0,1 %.

Error band

El error band tiene en cuenta la combinación de los errores de linealidad y sensibilidad. Es la medición del error absoluto del peor caso en el rango calibrado. El error band se calcula comparando el voltaje de salida en huecos específicos a su valor esperado. El error del peor caso de esta comparación se lista en el error band del sistema.

Ancho de banda

El ancho de banda se define como la frecuencia a el rendimiento cae a –3 dB, una frecuencia que también se llama cutoff frequency. Una caída de – 3 dB en el nivel de la señal supone una disminución aproximada del 30 %. Con un ancho de banda de 15 kHz, un cambio de ±1 V a baja frecuencia sólo producirá un cambio de ±0.7 V a 15 kHz. Los sensores de banda ancha pueden sentir movimiento de alta frecuencia y proporcionar salidas de rápida respuesta para maximizar el margen de fase cuando se usan en sistemas de realimentación de servo-control; sin embargo, los sensores de ancho de banda inferior reducirán el ruido de salida lo cual significa una resolución más alta. Algunos sensores proporcionan ancho de banda seleccionable para maximizar la resolución o el tiempo de respuesta.

Resolución

La resolución se define como la medida fiable más pequeña que un sistema puede hacer. La resolución de un sistema de medida debe ser mejor de lo que la exactitud final de la medición requiere. Si necesitas conocer una medida dentro de 0,02 µm, entonces la resolución del sistema de medición debe ser mejor que 0.02 µm.

El principal factor determinante de la resolución es el ruido eléctrico. El ruido eléctrico aparece en el voltaje de salida causando errores instantáneos pequeños en la salida. Incluso cuando el hueco de sonda/objetivo es perfectamente constante, el voltaje de salida del driver tiene alguna pequeña cantidad medible de ruido que parecería indicar que el huevo está cambiando. Este ruido es inherente en componentes electrónicos y puede ser minimizado, pero nunca eliminado.

Si un driver tiene un ruido de salida de 0,002 V con una sensibilidad de 10 V/l mm, entonces tiene un ruido de salida de 0,2 µm. Esto quiere decir que en cualquier momento, la salida tendrá un error de 0.2 µm. La cantidad de ruido en la salida está directamente relacionado con el ancho de banda. Generalmente hablando, el ruido se distribuye sobre un amplio rango de frecuencias. Si las frecuencias más altas se filtran antes de la salida, el resultado es menos ruido y menor resolución. Cuando se examinan las especificaciones de la resolución, es crítico conocer a qué anchos de banda se aplican las especificaciones.

La cantidad de ruido en la salida está directamente relacionada con el ancho de banda. Generalmente hablando, el ruido se distribuye sobre un amplio rango de frecuencias. Si las frecuencias más altas se filtran antes de la salida, el resultado es menos ruido y mejor resolución. Cuando se examinan las especificaciones de la resolución, es crítico conocer a que ancho de banda se aplican las especificaciones.

Efectos del tamaño del objeto

El tamaño del objeto es una consideración principal cuando se selecciona una sonda para una aplicación específica. Cuando el campo eléctrico sensor se enfoca por guarding, crea un campo ligeramente cónico que es una proyección del área sensora. El diámetro del objeto es usualmente un 130 % del diámetro del área sensora. Lo que está más lejos de la sonda es el objeto, el más grande es el tamaño del objeto mínimo.

Rango de medición

El rango en el que la sonda es útil es una función del tamaño del área sensora. Si el área es más grande, también es más grande el rango. Debido a que el driver electrónico se diseña para cierta cantidad de capacitancia en la sonda, una sonda más pequeña debe estar considerablemente más cerca al objeto para alcanzar la cantidad deseada de capacitancia. En general, el hueco máximo al que la sonda es útil es aproximadamente un 40 % del diámetro del área sensora. Las calibraciones típicas usualmente mantienen el hueco a un valor considerablemente menor que esto. Aunque la electrónica es ajustable durante la calibración, hay un límite al rango de ajuste.

Sensor de canal múltiple

Frecuentemente, un objeto se mide simultáneamente por múltiples sondas. Debido a que el sistema mide un campo eléctrico cambiante, el voltaje de excitación para cada sonda debe sincronizarse o las sondas interferirán entre sí. Si no están sincronizadas, una sonda intentará crear un campo eléctrico mientras que otra intente hacer que disminuya; y el resultado probablemente será una lectura falsa. La electrónica del driver puede configurarse como maestro o esclavo; el maestro establece la sincronización para los esclavos en sistemas multicanal.

Efectos del material del objeto

El campo eléctrico del sensor está buscando una superficie conductiva. Probado que el objeto es un conductor, los sensores capacitivos no están afectados por el material del objeto específico; se medirán todos los conductores – latón, acero, aluminio o agua salada. Debido a que el campo eléctrico del sensor para en la superficie del conductor, el espesor del objeto no afecta la medición.

Midiendo no conductores

Los sensores capacitivos son a menudo usados para medir el cambio de posición de un objeto conductivo. Pero los sensores capacitivos pueden ser muy efectivos midiendo presencia, densidad, espesor, y localización de no conductores. Los materiales no conductores tales como el aire tienen diferente constante dieléctrica que el aire. La constante dieléctrica determina cómo un material no conductivo afecta a la capacitancia entre los dos conductores.

Cuando un no conductor se inserta entre la sonda y un objeto de referencia estacionario, el campo del sensor pasa a través del material al objeto puesto a tierra. La presencia de un material no conductor cambia la constante dieléctrica y por lo tanto cambia la capacitancia. La capacitancia cambiará en relación al espesor o densidad del material.

No siempre es factible tener un objeto de referencia en frente de la sonda. A menudo, la medición puede hacerse mediante una técnica llamada fringing. Si no hay una referencia conductiva directamente en frente de la sonda, el campo eléctrico del sensor envolverá el cuerpo de la sonda en sí misma. Esto se denomina un fringe field. Si un material no conductivo se lleva en proximidad a la sonda, si constante dieléctrica cambiará el fringe field; esto puede usarse para sentir el material no conductivo. La sensibilidad del sensor al objeto no conductivo es directamente proporcional a la constante dieléctrica del material.

Maximizando exactitud

La exactitud requiere que las mediciones se hagan bajo las mismas condiciones en las que el sensor fue calibrado. Si este sensor se calibra en la factoría, o se calibra durante el uso, los resultados repetibles vienen de condiciones repetibles. Si sólo deseamos que la distancia afecte a la medición, entonces todas las otras variables deben ser constantes. A continuación discutimos fuentes de errores comunes y cómo minimizarlos.

Tamaño del objeto

A menos que se especifique otra cosa, las calibraciones de factoría se hacen con un objeto conductivo plano que es considerablemente más grande que el área sensora. Un sensor calibrado de esta forma dará resultados exactos cuando se mida un objeto plano >30% en tamaño que el área sensora. Si el área del objeto es demasiado pequeña, el campo eléctrico comenzará a envolver los lados del objeto, lo que significa que el campo eléctrico se extiende más allá que lo que se hace en calibración y se medirá el objeto a más distancia. En este caso, la sonda debe estar más próxima al objeto para el mismo punto cero. Debido a que esta distancia difiere de la calibración original, se introducirán errores. Se creará el error porque la sonda no alarga su medición en una superficie plana. Si la distancia entre la sonda y el objeto se considera en el eje Z, entonces un problema adicional con un objeto infra-dimensionado es que el sensor llega a ser sensible a la localización X e Y de la sonda. Sin cambiar el hueco, la salida cambiará significativamente si la sonda se mueve según el eje X o Y porque menos campo eléctrico va al centro del objeto y más a los lados.

Forma del objeto: La forma del objeto debe también ser tomada en consideración. Debido a que las sondas se calibra en un objeto plano, la medición de objetos con una superficie curvada causará error. Debido a que la sonda medirá distancias promedio al objeto curvado, el hueco a 0,0 V será diferente en un hueco a 0,0 V cuando el sistema se calibra. Se introducirán errores debido al diferente comportamiento del campo eléctrico con la superficie curvada. En casos donde un objeto no plano debe ser medido, el sistema puede ser calibrado en fábrica en su forma final. Alternativamente, cuando la calibración plana se usa con superficies curvadas, pueden determinarse multiplicadores para corregir el valor de la medición.

Acabado superficial: Cuando la superficie del objeto no es perfectamente uniforme, el sistema promediará sobre un área cubierta por el tamaño de la superficie sensórica. El valor del a medición puede cambiar cuando la sonda se mueve a través de una superficie debido a un cambio en la localización promedio de la superficie. La magnitud de este error depende de la naturaleza y simetría de las irregularidades de la superficie y del tamaño del área sensora de la sonda. Las grandes sondas son en promedio más grandes sobre un área más grande y menos susceptibles a las irregularidades superficiales.

Paralelismo: Durante la calibración la superficie del sensor es paralela a la superficie del objeto. Si la sonda o el objeto se inclina una cantidad significativa, la forma de la superficie donde el campo golpea el objetivo se alarga y cambia la interacción del campo con el objeto. Debido al diferente comportamiento del campo eléctrico, se introducirán errores de medición. A muy altas resoluciones, incluso unos pocos grados de inclinación pueden introducir error. Debe considerarse el paralelismo cuando se diseña el punto de fijación para la medición.

Condiciones ambientales: Todos los sensores capacitivos exhiben alguna sensibilidad a la temperatura, pero usualmente están bien diseñados para compensar la temperatura, resultando muy pequeños cambios con la temperatura en un rango limitado. Un problema mayor es que virtualmente todos los objetos y materiales de fijación muestran una expansión y significativa. Cuando esto ocurre, los cambios en la medición no son un error de medida; son cambios reales en el espacio entre el objeto y la sonda. Diseños cuidadosos del sistema de medición permite maximizar la exactitud. La constante dieléctrica del aire queda afectada por la humedad; cuando la humedad se incrementa, la constante dieléctrica aumenta también. La humedad puede interaccionar con materiales desde que la sonda se construye. Los cambios de humedad que van de 50 % – 80 % HR pueden causar errores de hasta un 0,5 % a fondo de escala.

Si bien los materiales de las sondas se seleccionan para minimizar estos errores ambientales, las aplicaciones que requieren más precisión deben controlar la temperatura y humedad.

Bibliografía:
  • Capacitive sensor operation Part I y II. Sensors June 2009

Sobre cómo en Alemania hacen eficientes sus viejos edificios

Si el negocio de la eficiencia energética no crece más rápido, es por la dificultad de explicar estos nuevos conceptos. Hablamos nuevamente de eficiencia energética, y esta vez nos centramos en las acciones que puede hacerse en los nuevos edificios. La última tendencia de los arquitectos alemanes es competir por diseñar las casas más eficientes energéticamente. Las viviendas pasivas alemanas tienen tan poca necesidad de sistemas de calentamiento convencional, que en el gélido invierno centroeuropeo sólo requieren tres litros de gasoil por m2 cada año. Pero lo más interesante de estos proyectos es que no solamente se pueden aplicar a edificios nuevos, sino también es bien viable la remoción de las casas existentes.
Veamos que están haciendo los alemanes y si podemos aprender algo:
A primera vista, la fila de casas en la vecindad de Gartenstadt de Mannheim parecen espectaculares. Los edificios a lo largo de Freyastrasse en la ciudad son construcciones clásicas de dos plantas, arquitectura de pre-guerra, construidas al principio de los años treinta. El complejo ha sido renovado – pero los cambios son técnicos y no estéticos. Los edificios son ahora una maravilla en eficiencia energética – son casas de tres litros. El calentamiento de los apartamentos requiere no más que el equivalente a tres litros anuales de gas-oil por metro cuadrado. Es un grado asombroso de eficiencia energética para un edificio histórico. Incluso las casas nuevas pueden consumir el doble de energía según la legislación alemana. El trabajo de Mannheim es un proyecto piloto. La compañía de construcción GBG deseaba mostrar lo que había conseguido a través de la renovación de las edificaciones históricas. Los científicos en la Universidad de Stuttgart proporcionaron también su experiencia. Según la ley alemana, se requiere que los edificios tengan un mínimo de 12 cm de aislamiento en sus fachadas, pero para este complejo, GBG usó 20 cm. El aislamiento de los techos es cuatro veces el espesor de los requerimientos legales. Las ventanas también están más rigurosamente aisladas de lo que se regula para edificaciones. Cuando se acabó la construcción básica, la eficiencia energética del edificio se ensayó por medio del denominado “ensayo de puerta de soplador”. Ello implica la reducción artificial de la presión de aire en el interior de la casa relativo a la presión de aire en el exterior y luego se ensaya la rapidez con la que el aire entra en el edificio. El ensayo muestra el grado la permeabilidad de las paredes del edificio se ha reducido. Las necesidades energéticas del edificio se reducen en un asombroso 90 %, pues un edificio antiguo consume entre 20 y 25 litros de gasoil por m2, aunque consumos de niveles de 30 litros o más no son inusuales.
Habitaciones para innovación
Recortar el uso de combustible a 3 litros puede sonar asombroso, pero todavía hay habitaciones donde puede conseguirse una mayor eficiencia energética. La compañía de construcción Viebrock en el estado alemán de baja Sajonia, por ejemplo, está ahora construyendo casas que consumen sólo dos litros de gas oil de calentamiento por m2. Pero aún hay más, pues las denominadas casas pasivas consumen menos de 1,5 litros de gas oil de calefacción por m2. El término casas pasivas deriva del hecho de que las casas apenas requieren ningún calentamiento activo. El calor liberado por pequeños aparatos domésticos y el calor corporal es suficiente para calentar estas casas. La ventilación automática – con un sistema de retención de calor integrado, por supuesto – asegura que las habitaciones no estén demasiado viciadas.

24 octubre 2009

Microcontroladores para aplicaciones operadas con baterías

La familia EFM32 Gecko de microcontroladores se ha desarrollado para periféricos disponibles con aplicaciones operadas con baterías. Todos los dispositivos vienen en varias opciones de paquetes de memoria y comparten la CPU de 32-bit ARM Cortex-M3 y los periféricos autónomos de ultra baja energía.

Prototipos eficientes y desarrollo de productos

Los microcontroladores EFM32 son soportados por un rango completo de kits de desarrollo de bajo coste. Estas herramientas incluyen emuladores integrados para depuración y desarrollo de software, y una biblioteca de software soportada por cadenas de herramientas mayores tales como IAR Embedded Workbench®, KEIL μVision® and GNU GCC.

  • Sistemas de control avanzados.
  • USB basado en programación y depuración.
  • Interface de usuario con display 320*240 RGB LCD y LEDs.
  • Diseño altamente modular con placas MCU.
  • Gran capacidad I/O.
  • Sensor de aceleración de 3 ejes y sensor luminoso.
  • Placa soporte y biblioteca de soporte del dispositivo.
  • Soporte de desarrollo para las cadenas de herramientas mayores.
  • USARTs con UART y modos SPI
  • UART de baja energía (LEUART).
  • Contador de 16-bit con compara/captura.
  • Contador de tiempo real (RTC).
  • Contador de pulso (PCNT).
  • ADC de 12-bit y DAC.Comparadores analógicos con capacidad sensora capacitiva.

Más información aquí.

Sensores de proximidad inductivos para aplicaciones hidráulicas

El control de la energía de los fluidos ha cambiado dramáticamente en los últimos 20-30 años. Las presiones necesarias en la industria – 5000 o 6000 psi – son el doble de las utilizadas a finales de los noventa. Estos requerimientos de alta presión provocan un alto riesgo de daños a los empleados o riesgos de parada no controlada.

Fuerzas del mercado
Los cilindros hidráulicos se usan en muchas industrias, pero para evitar daños y averías causadas por cargas pesadas necesitamos controlar su desaceleración. Métodos del pasado han incluido sistemas para absorción de choques, que requieren mucho espacio; válvulas proporcionales, que son caras y se desgastan con los efectos de la erosión por vibraciones y ambientales; y por el diseño del cilindro, que lleva a las cargas a parar más suavemente cuando el cilindro alcanza el fin de su recorrido. Con los avances en la electrónica y en la capacidad de integrar electrónica con hidráulica, el uso de cilindros hidráulicos continúa creciendo. Los fabricantes han desarrollado sensores embebidos en el chasis hidráulico y crean diseños que interface directamente con los controladores electrónicos standard.

Un asunto clave es la necesidad de incrementar las presiones de operación. El final del recorrido es una de las señales más importantes que deben controlarse en un sistema hidráulico. Originalmente controlado por medios mecánicos, esta señal permite a los diseñadores hidráulicos determinar cuando el cilindro ha completado su movimiento en una dirección dada. Las deficiencias asociadas con la conmutación mecánica incluyen acortamiento del ciclo de vida, necesidad de reajuste constante, susceptibilidad a daños por fuerzas externas, falta de precisión y baja repetibilidad en los puntos de conmutación, y actuaciones accidentales. Sus fortalezas incluyen bajos costes iniciales y el hecho de que están en el exterior del sistema hidráulico y por lo tanto no quedan afectados por la presión.

Sensores resistentes a la presión

Los sensores de proximidad inductivos resistentes a la presión se usan en una multitud de aplicaciones, incluyendo sistemas hidráulicos con presiones hasta 7250 psi. La resistencia a la presión requiere paredes de alojamiento espesas, particularmente en la cara sensora. El principal problema entonces es cómo proporcionar una distancia de operación aceptable a pesar del espesor de la pared.

Carcasas reforzadas

Estos sensores de proximidad alcanzan la resistencia a la presión requerida usando paredes suficientemente fuertes. En la cara sensora, un disco cerámico – con suficiente espesor para resistir la presión sin necesidad de refuerzo – es usado en la carcasa. El módulo electrónico, incluyendo el núcleo de ferrita y el devanado, se coloca en la parte libre de presión de la carcasa. Debido al espesor del disco cerámico, usando un módulo sensor de proximidad con una distancia de operación normal, resultaría una distancia de operación inferior a cero.

Sellando la cara sensora

La resistencia de presión, por necesidad, demanda un sello que prevenga que perjudiciales cantidades de líquidos y gases entren en la carcasa, incluso a máximas temperaturas de operación. Tal sello es particularmente crucial entre la cara sensora cerámica y la carcasa metálica.

Distancia de operación

Una gran parte de la distancia de operación utilizable se pierde debido al espesor del disco cerámico. Por lo tanto, para alcanzar suficiente distancia de operación, usaremos un módulo electrónico con una distancia de operación aproximadamente 3 veces lo normal, del entorno de los 3 mm.

Requerimientos dinámicos

Los sensores de proximidad resistentes a la presión convencional son raramente adecuados para los requerimientos de presión dinámicos debido a sus sistemas de soporte y sellos de teflón que se desgastan después de un número limitado de ciclos de presión. En la práctica, este tipo de tensiones ocurren frecuentemente, especialmente en sistemas hidráulicos. La nueva generación de sensores de proximidad, debido a su construcción simple en conjunción con las altas presiones usadas para enlazar la carcasa en el disco dinámico, son completamente insensibles a las tensiones dinámicas y los picos de presión. Sus ventajas incluyen:
  • Un número virtualmente ilimitado de ciclos permisibles de presión en un amplio rango de presiones.
  • Largas distancias de operación.
  • Ajuste del gas en la cara sensora.
  • Fácil montaje.
  • No se requiere posicionamiento.
Aplicaciones

Los nuevos sensores de proximidad resistentes a la presión pueden reemplazar dispositivos corrientemente disponibles en el mercado. Si bien son fáciles de montar y sus distancias de operación son importantes, son particularmente convenientes donde se esperan tensiones de presión dinámicas, tales como:
  • Control del golpe final del pistón en los cilindros hidráulicos.
  • Control del sensor de la válvula hidráulica.
  • Control de r.p.m. y medición de motores hidráulicos.
  • Control de sensores de válvulas y sistemas de distribución de gases.
  • Aplicación en alto vacío.
Bibliografía: Pressure-Resistant Proxes: New Generation Proximity Switches For Hydraulic Applications. Sensors electronics & computers. Apr 2007

Llega la tecnología de las nanoantenas

Un equipo de investigación del instituto de tecnología Karlsruhe ha creado antenas para frecuencias de multi-terahertz. Los dispositivos pueden formar la piedra angular de redes de sensores futuras extremadamente poderosas.
Por medio de herramientas de litografía de haces de electrones, se han fabricado disposiciones de oro en un sustrato de vidrio. Con su tamaño entre 70 y 250 nanómetros formarán elementos resonadores medio-lambda para un amplio espectro de ondas ligeras.
Las longitudes de onda de las antenas se diseñan para correlacionar con frecuencias de 500.000 GHz y más. Por supuesto, ningún elemento semiconductor está disponible para manejar estas antenas. Por esta razón, son excitadas con luz blanca; cada antena entra en resonancia por su frecuencia específica (= color claro), formando una disposición de banda ancha de multiplexión para transmisión de datos con tasas de datos 10.000 veces más altos que las tecnologías de banda ancha inalámbricas existentes. La modulación del haz de luz se consigue aplicando el principio de superposición.
Ya que ningún semiconductor está disponible para manejar la empresa eléctricamente, los investigadores se centraron en métodos no convencionales para transmitir y recibir datos. Actualmente desarrollan elementos de nano conmutación que utilizan la tecnología cuántica. Si bien los ordenadores cuánticos están aún en una etapa muy temprana de desarrollo, el uso de esta tecnología puede ser posible en pocos años.

Bibliografía: Nano antennas open perspective for terabit networks. October 2009

23 octubre 2009

Impulso a la energía termosolar de concentración en Estados Unidos

La energía CSP ha sido beneficiada por el último impulso a las renovables dado en Estados Unidos. A principios de este mes se conoció que un fondo de 750 millones de dólares soportaría las garantías de los presupuestos para inversiones totales de 8.000 millones de dólares en proyectos. Analicemos en este artículo el panorama que se presenta en el país para esta tecnología de generación.
Bajo el programa de garantías de préstamos, el gobierno está apoyando de forma efectiva al sector ya que la deuda de estas inversiones casi queda libre de riesgos. Los proyectos, de todas formas, necesitarán ser aprobados previamente por alguna de las agencias de calificación de riesgos, como Moody´s, S&P o Fitch.
Este programa había sido anunciado ya en 2005, pero hasta este año ninguna solicitud había sido aceptada.
Para recibir estas ayudas, los proyectos deben comenzar su construcción a partir del 30 de septiembre de 2011.
Hasta ahora no es fácil cuantificar cómo se beneficiará el sector CSP de los planes de estímulo. El sector eólico por el contrario si ha tomado ventaja de los estímulos públicos. De los 100.000 millones anunciados en el programa de estímulo, aproximadamente el 90 % de los proyectos entran en la categoría eólica.
Las garantías dadas a los proyectos CSP alcanzarán a cubrir un máximo del 80 % de la deuda del proyecto, y la deuda total se limitará al 80 % del capital del proyecto.
De esa forma, la garantía del préstamo cubrirá un máximo del 64 % de los costes del proyecto total. También, la solicitud de estos préstamos requiere un rating de crédito de al menos BB o mayor.
Respecto a las previsiones de crecimiento de la tecnología CSP, las previsiones actuales apuntan hacia proyectos que pueden llegar a alcanzar los 6.200 MW.

Más información aquí.

22 octubre 2009

Nueva técnica de control usando ultrasonidos

La planta de National Thermal Power Corporation´s Sipat en la India se ha probado una nueva técnica para controlar rodamientos utilizando mediciones de vibración. A veces se usan detectores de temperatura, pero su uso es necesario principalmente cuando el control de la temperatura es importante.
Una nueva técnica llamad control de las condiciones ultrasónica está disponible para detectar incluso fallos incipientes en rodamientos, así como lo adecuado de los lubricantes.
Las mediciones IRD no son útiles para velocidades muy bajas, pero los detectores ultrasónicos pueden usarse incluso en máquinas de velocidad baja. Esta tecnología puede considerarse una tecnología de integración ya que puede usarse con tecnologías de vibraciones e infrarrojos, además de realizar una multiciplicidad de actividades de inspección. Los instrumentos basados en esta tecnología pueden controlar un amplio rango de operaciones de planta y todavía son lo bastante simples para usarse con formación mínima para realizar una inspección básica y efectiva.
Muchos fallos y reparaciones que comúnmente ocurren en el marco industrial pueden prevenirse con tecnología ultrasónica, un método de mantenimiento predictivo, no destructivo, altamente efectivo.
La detección de pérdidas ultrasónicas la recomiendan entidades tales como el Departamento de Energía de Estados Unidos como el mejor método para detectar la localización de pérdidas en orden de minimizar el derroche de energía y mejorar la eficiencia de planta. Los sensores ultrasónicos están diseñados con la tecnología y el software correcto y pueden usarse para controlar condiciones y mantenimiento predictivo.
Consideremos el siguiente resumen para la evaluación independiente de la integración de la tecnología ultrasónica en una organización con más de 500 sitios:
  • Se identificaron más de 100 aplicaciones donde se identificaron equipos en uso para sitio, tales como calderas, intercambiadores de calor, compresores, motores, bombas, válvulas, y trampas de vapor.
  • El ahorro total para la organización sería aproximadamente 3,7 millones de dólares anualmente.
  • El retorno de la inversión para la integración de ultrasonidos con esta forma de evitar costes sería aproximadamente 15:1.
  • El ahorro anual en personas causado por la reducción de tiempo empleando diagnosis y solucionando problemas sería aproximadamente 45 hombres año.

Visión general de la tecnología

Los transductores ultrasónicos de peso ligero y portátiles, se usan para inspeccionar una gran variedad de equipos. Algunas aplicaciones típicas incluyen: inspección de rodamiento; ensayo de engranajes/caja de engranajes; bombas; motores; inspecciones de trampas de vapor; ensayos de válvulas; detección/tendencias de cavitación; análisis de válvulas del compresor; detección de pérdidas en sistemas de presión y vacío tales como calderas, intercambiadores de calor, condensadores, enfriadoras, depósitos, tuberías, sistemas de aire comprimido, sistemas de gas y pérdidas subterráneas, etc.

¿Por qué son efectivos los ultrasonidos transportados por aire?

Todos los equipos operativos y la mayoría de los problemas de pérdidas producen un amplio rango de sonido. Los componentes ultrasónicos de alta frecuencia de estos sonidos tienen una onda extremadamente corta en naturaleza. Una señal de onda corta tiende a ser bastante direccional. Por lo tanto, es relativamente fácil detectar su localización exacta separando esas señales de los ruidos de los equipos de planta y operación. Adicionalmente, cuando tales cambios comienzan a ocurrir en equipos mecánicos, la naturaleza direccional de los ultrasonidos permite que estas señales de aviso potencial se detecten pronto, antes del fallo, y a menudo pueden ser detectadas por vibraciones o infrarrojos. Los instrumentos ultrasónicos, a menudo referidos como transductores ultrasónicos, proporcionan información en tres caminos:

  • Cualitativos: Con la capacidad de escuchar ultrasonidos mediante un micrófono.
  • Cuantitativos: Vía lecturas (dB) de intensidad en un medidor o panel de display; y
  • Analíticos: Con el uso de software de análisis espectral para revisar las muestras de sonidos registradas.

Aunque la capacidad para medir intensidad y ver los modelos sónicos es importante, es igualmente importante ser capaces de escuchar los ultrasonidos producidos por varios equipos. Esto es precisamente lo que hace que estos instrumentos sean tan populares. Ello permite a los inspectores confirmar una diagnosis y ser capaces de discriminar entre varios equipos. Esto se cumple en la mayoría de los instrumentos ultrasónicos por un proceso electrónico denominado "heterodyning" que traslada los ultrasonidos sentidos por el instrumento a un rango audible donde los usuarios pueden escuchar y reconocerlos en los micrófonos.

Bibliografía: Ultrasonic condition monitoring. Reliableplant. October 2009.

Otro país que descubre el outsourcing: Chile

El vibrante país sudamericano se propone llegar a ser un núcleo principal del outsourcing, pero necesita aprender lecciones de India y China, y cultivar más la innovación.
Un nuevo país entra en la lista de aquellos que desafían la supremacía tecnológica de Estados Unidos, y al ritmo que van pronto superarán a muchas arcaicas economías europeas como la española.
En general, Sudamérica es actualmente un gran motor económico con una joven población y economías madurando rápidamente. Gran parte del crecimiento ha venido de sus ricos recursos minerales y de la burbuja de materias primas que generó una lluvia de dinero a los granjeros y mineros.
Los países de la región desean romper a toda costa su dependencia de los ciclos de las materias primas. Cada vez más, estos países ven la tecnología como una forma de crear un desarrollo económico a largo plazo y sostenido. Entre todos estos países destaca Chile. El dinero fluye en Chile como consecuencia del reciente boom del cobre.
Con los bolsillos profundos y generosos incentivos, Chile tiene ventajas que pueden permitirle unirse a la India como un centro de I+D global.

Los emprendedores son la clave

Las lecciones que debe aprender Chile para conseguir este propósito son atraer emprendedores y cultivar la innovación – no solamente ser un núcleo de servicios contratados de materias commodities tales como manejar los centros de servicios al cliente.

Las aspiraciones de Chile vienen de 1996, cuando perdió frente a Costa Rica su apuesta por ser elegido como planta de ensamblajes de 300 millones de dólares que planificaba construir Intel. En 2000, la Agencia de Desarrollo de la Economía Chilena (CORFO) comenzó a promocionar las ventajas del país como centro de outsourcing. La agencia ofreció incentivos financieros para la localización de compañías. En 2006, la industria del outsourcing generó unos ingresos de 200 millones de dólares en ingresos y empleo 6.700 trabajadores.
Animado por estos éxitos, el gobierno chileno aumentó sus ambiciones y se centró en servicios TI. Si bien los proporcionadores de servicios de bajo nivel todavía son bienvenidos, el enfoque se centró en servicios de mayor valor añadido, incluyendo desarrollo y gestión de aplicaciones, integración de sistemas, y manejo de tareas sofisticadas, tales como recursos humanos, finanzas, y supply chain management. Esos servicios se conocen en círculos industriales como business process outsourcing (BPO).

Educación ascendente

Como resultado de la industria del outsourcing, chile obtuvo 840 millones de dólares, empleando más de 20.000 personas, y atrayendo a compañías como Equifax, JPMorgan Chase, Yahoo y Oracle. Las predicciones apuntan a que el país puede exportar 5.000 millones de dólares en servicios en 2015.

Aquí está el problema. Chile simplemente no tiene suficientes trabajadores educados para soportar estas ambiciones.

Bibliografía: Chile´s Outsourcing Challenge. BusinessWeek October 2009

21 octubre 2009

Más sobre el hundimiento de los precios de los módulos fotovoltaicos

Continuamos en este artículo hablando de la fuerte corrección que los precios de los módulos fotovoltaicos vienen experimentando a nivel mundial, y que de forma general se viene agudizando en los últimos meses.
Podemos también estar seguros que la reciente reducción en los precios de la electricidad solar ha estimulado la demanda alrededor del mundo.
Donde hay incentivos de tasas relacionados a la energía solar, los consumidores desean tomar ventaja de esta situación antes de que el año finalice. En algunos mercados, hay también cambios en las tarifas remuneradas a final de año, y eso es un poderoso incentivo para comprar ahora. Al mismo tiempo, la demanda de sistemas comerciales más grandes conforme el crédito se libera en todo el mundo, y ello es un poderoso incentivo para comprar ahora pues los precios pueden remontar.
El último mes se ha registrado la caída menor en los precios desde febrero de este año. La tendencia es aún de caída, pero nada como lo vivido en meses pasados.
Este mes, si bien los módulos siguen siendo más baratos en Estados Unidos, se observa una caída superior en Europa. En Estados Unidos la caída de los precios ha sido de 1 centavo de dólar por vatio mientras que en Europa la disminución de precio fue de 4 céntimos de euro por vatio.
Es interesante observar que muchas de las nuevas adiciones de modelos de módulos solares están en el rango de potencia de 210 – 230 vatios. Hace una década o menos, se consideraba que un módulo de 120 vatios era alta potencia. La continua eficiencia en las células junto que la utilización de módulos más grandes son los responsables de la aparición de estos nuevos módulos de mayor potencia.
Los precios más bajos encontrados ese mes son 4,38 dólares por vatio en USA y 4,24 euros por vatio en Europa.
Si estudiamos los precios de los módulos de film, el precio minorista está en 1,76 $ por vatio. No obstante estos módulos requieren mayor superficie para su instalación

Contexto del índice de precios

El coste de los módulos representa aproximadamente el 50 – 60 % del coste total instalado de los sistemas de energía solar.

Fuente: Solarbuzz