Nuestros artículos imprescindibles

31 julio 2009

Reestructuración corporativa en Japón y sus enseñanzas para nuestra crisis

En los últimos meses Toyota sustituyó por sus directivos, para proyectos y recortó temporalmente la producción a la mitad. Toshiba tomó el control de sus filiales y cerró a negocios sin beneficios. Estas medidas son inteligentes cuando se quiere afrontar una crisis. De nada sirven debilitar a una empresa manteniendo actividades no productivas. Sony planea reducir la mitad el número de suministradores (esta medida ahorrará 5.200 millones de dólares tan solo este año). Todas ellas planean recortar trabajadores a tiempo parcial y temporal. Estas acciones de las compañías japonesas alientan a otras a seguir ejemplo. Las enseñanzas de la década perdida (1991-2002) son claras, las firmas que lo adoptaron medidas drásticas desaparecieron o sufrieron un estancamiento que duró años. Conforme avanza la crisis, las empresas se debilitan más y el margen de acción va disminuyendo. Esta vez Japón no caído en el error que mantuvo al país sumido en una prolongada crisis. Después de todo, si un país sabe responder ante un periodo de lento crecimiento este es Japón. La prensa japonesa, ayudado a mentalizar a la población con continuas llamadas que han conseguido apoyo para tan duro sacrificio. Destaca esta responsable actitud a la reacción carroñera de la prensa española, más preocupada por la batalla política y prestar apoyo a los grupos de presión que realmente han originado la crisis. En Japón estalló en 1992 una burbuja especulativa de origen inmobiliario muy similar a la española. Sorprendentemente la historia se repite. En 1991 la prensa japonesa se dedicó a culpar a los bancos norteamericanos de lo que estaba ocurriendo en el país, como ocurre en España actualmente el detonante de la crisis japonesa también vino de Estados Unidos. Aquel año las exportaciones se hundieron repentinamente, y ello ocurrió en tándem con un incremento del precio de las materias primas y una apreciación del yen que hizo sus exportaciones más caras. La misma situación se ha dado en España. En la década perdida nadie quería asumir en Japón los sacrificios de la crisis. Los bancos continuaron durante mucho tiempo su errática trayectoria, los desarrolladores de la propiedad no asumieron que habían creado un negocio a partir de humo, y los conglomerados ambiciosos intentaron por todos los medios posibles prolongar una situación que había ya muerto. Los trabajadores obviamente pensaban que la crisis debía pagarla quienes la habían provocado. Las reformas corporativas, muy duras, sólo fueron asumidas con el paso de los años. En esta ocasión, la economía japonesa es fuerte y está saneada, y la crisis se debe exclusivamente a una fuerte caída de la demanda en occidente. La fuerte dependencia de Japón del sector exportador ha provocado que su economía se contraiga este año en un 6 %. La sobrecapacidad industrial japonesa para bienes no demandados actualmente es la mayor de todos los países ricos. En realidad, las cosas están tan mal que se ha asumido que no pueden ir a peor. ¿Cómo se reestructura una empresa? En este blog intentamos caracterizarnos por la independencia, y ello supone que muchas aseveraciones tajantes pueden resultar hirientes, pero para eso está la magia de la blogosfera, para que cada uno exprese su opinión libremente. Dicho esto defendemos que toda reestructuración pasa por reducir el staff. Desde la década perdida la fuerza laboral de Japón es más flexible, la tradición del empleo para toda la vida de la postguerra ha desaparecido. Al elevarse la proporción de trabajadores no regulares las firmas han conseguido recortar costes rápidamente. Esta es la de conseguir sobrevivir cuando el mercado se reduce. Otro signo de cambio en las corporaciones japonesas es el repentino celo por las fusiones y adquisiciones, un fenómeno que se produce al incierto ambiente comercial y a la escasez de capital. El último año las compañías japonesas incidieron más que nunca en las adquisiciones en el extranjero. Además de reestructurar las empresas las firmas japonesas han puesto todo su empeño en recortes costes, una teoría que han desarrollado especialmente las más exportadoras, pues fueron las más afectadas por la caída de la demanda global. El dolor de los recortes se ha extendido con fuerza en a los suministradores, quienes sufren con más intensidad todos los nuevos cambios. Bibliografía: Breaking free. The Economist. June 20th 2009.

30 julio 2009

Desplegando redes inalámbricas de sensores organizados en clusters

Recientes avances en la electrónica y comunicación inalámbrica han permitido el despliegue a bajo coste y bajo consumo de sensores multifuncionales. Se abre un extraordinario campo de acción para la ingeniería pues el tendido de redes inalámbricas de sensores es indudablemente una de las formas más efectivas de detectar los derroches y consecuentemente aumentar la productividad de plantas industriales existentes. En este artículo vamos a continuar entrando en detalles de ingeniería que ayudan a entender cómo abordar proyectos de despliegue de redes inalámbricas en plantas industriales existentes. De manera específica trataremos la importancia de saber planificar el diseño y valorar el equilibro en las redes que se pretenden desplegar para evitar problemas futuros que surgirán conforme aumentemos la cobertura sensora. Para alcanzar eficiencia energética e incrementar la escalabilidad de redes, los nodos de sensores pueden organizarse en clusters. La comunicación dentro de un cluster, así como entre diferentes clusters puede organizarse como una combinación de comunicación one-hop y multi-hop. En comunicación one-hop, cada nodo de sensor puede alcanzar directamente el nodo sumidero, mientras que en comunicación multi-hop, los nodos tienen rango de transmisión limitado y por lo tanto son forzados a dirigir sus datos en varios hops hasta que los datos alcanzan el nodo sumidero. En ambos modelos surgen problemas ineludibles de disipación de energía desequilibrada entre diferentes nodos, originándose una situación en la que los nodos pierden energía a un ritmo mayor y mueren antes que otros, reduciendo posiblemente la cobertura sensora y originando la partición de la red. En comunicaciones single-hop, los nodos más alejados del nodo sumidero son los más críticos, mientras que en comunicación multi-hop, los nodos más cercanos al nodo sumidero se cargarán con tráfico pesado y morirán primero. Un algoritmo de direccionamiento de la arquitectura jerárquica bien conocido es LEACH, que utiliza la aleatorización para rotar el Cluster Heads (CHs) y alcanzar una mejora significativa comparada con una aproximación directa. Sin embargo, esta aproximación permite sólo clusters one-hop y no considera los problemas de los puntos calientes. Li and Mohapatra (2005) presentaron un modelo matemático para caracterizar el problema del hueco de energía en redes de sensores inalámbricos. Basado en una perspectiva de tráfico, este modelo analítico examina la validez de varios posibles esquemas que se proponen mitigar o solventar el problema del hueco de energía. Se observa que en redes de sensores distribuidas uniformemente, el despliegue de datos y la compresión de datos tienen un efecto positivo. Olariu and Sojmenovic (2006´) presentaron el primer trabajo teórico que analiza la forma de eludir el problema del hueco de energía. Otro protocolo que puede usarse para solventar el problema es Energy-Balancing Unequal Clustering Protocol (EB-UCP) para WSNs. En EB-UCP, la red completa se divide en capas y clusters. El número de clusters más próximos al nodo sumidero es más grande que los que están alejados del nodo sumidero. Sin embargo, el número de nodos de cada cluster más próximos al nodo sumidero es más pequeño que los más alejados del nodo sumidero. De esta forma CHs interior puede reducir el consumo energético dentro de un cluster y preservar más energía para transmitir de datos inter-clustes. En orden de equilibrar la disipación de energía en cada capa, ratio razonable de densidad de distribución entre capas se deriva de acuerdo con el principio de equilibrio energético. Por lo tanto, el consumo de energía en cada capa es casi igual después de tal despliegue y el problema del punto caliente pues ser efectivamente mitigado de esta forma.

Bibliografía:
  • Jang J. & Zhang D. An energy-balancing unequal clustering protocol for wireless sensor networks. Information Technology Journal 8 (1): 57-63, 2009.
  • Li, J. and P. Mohapatra, 2005. An analytical model for the energy hole problem in many-to-one sensor networks. IEEE 62nd Semiannual Vehicular Technology Conference, September 25-28, IEEE Press, Dallas, USA.
  • Olariu, S. & Stojmenovic, I. 2006. Design guidelines for maximizing lifetime and avoiding energy holes in sensor networks with uniform distribution and uniform reporting. Proceedings on 25th IEEE International Conference on Computer Communication, April 23-29, IEEE Communications Society, Barcelona, Spain, pp: 1-12.
Palabras clave: unequal clustering, energy-balancing, network lifetime, network scalability, hierarchical architecture routing algorithm, wireless sensor networks (WSNs), distributed sensor network, sink node

29 julio 2009

Sobre cómo el euro influye en la crisis

El pasado 13 de junio, The Economist publicó uno de sus “special report” sobre la zona euro, como siempre un magnífico retrato de la temática abordada. Como suele ocurrir con todas las ideas innovadoras el nacimiento del euro despertó en sus inicios hilaridad y escepticismo. El euro se concibió para rivalizar con el dólar, y fue una evolución de las políticas de eliminación de barreras impulsadas por la unión europea. Pero pocos tomaban en serio la idea de una moneda única. Pero el caso es que el plan de unión monetaria fue aprobado por sorpresa en la ciudad holandesa de Maastrich. Hasta ahora el experimento funcionado bastante bien. El BCE ha cumplido su promesa de mantener el poder de compra, puesto que la inflación en la zona euro se ha mantenido en torno al 2%. Los miedos a que el euro fuese una moneda blanda se han probado infundados. Varios países incluyendo Montenegro y Kosovo, usan el euro como moneda propia sin pertenecer oficialmente a la zona euro. Así el euro ha traído prosperidad aunque no unión política. Las economías más dinámicas con el euro fueron España, Grecia e Irlanda, que disfrutaron todas de un boom de consumo. Hasta que llegó la crisis actual nadie se preocupó de los desequilibrios internos en la zona euro. Alemania mantiene enormes excedentes por cuenta corriente mientras que los países mediterráneos conviven con enormes déficits. Nadie sabe cómo se resolverá este problema y siguen esta situación puede continuarse usando la misma moneda. España en particular sufre los dolorosos efectos del colapso de una burbuja inmobiliaria de grandes proporciones, que ha llevado al colapso a la industria de la construcción y el desempleo a cotas desconocidas. La recuperación en España parece lejana. Los costes son altos aún en el país lo cual es duro para los únicos que pueden paliar los efectos de la crisis: el sector exportador. Las empresas españolas tienen escasa tradición exportadora por lo que esta actividad es difícil en un escenario de costes elevados. Encerrada en la moneda única España no puede demorar más volver a recuperar su competitividad perdida. Si no se recupera la competitividad España se enfrenta a una prolongada depresión. Entre 1997 y 2007 el boom inmobiliario disparo los costes y la inflación en España se mantuvo en el periodo como la más alta de la zona euro.

28 julio 2009

Los pobres ante la crisis global

El colapso del Lehman Brothers marcó el inicio del desplome del sistema financiero internacional, la crisis de la economía mundial originó un desequilibrio de las cuentas de resultados de que los bancos. Cayeron los exportaciones, se iniciaron las bancarrotas masivas la sombra del desempleo apareció en occidente. En los países pobres la crisis financiera se manifestó en forma de expectativas de hambre. Los informes de las Naciones Unidas (ver aquí) están dando ya las primeras estimaciones de cómo la crisis está dañando al grupo de personas más afectado por crash: los pobres. Entre 1990 y 2007, el número de personas que pasan hambre se elevó en 80 millones, y eso ocurrió en un periodo de fuerte expansión económica. Sólo en 2008, 40 millones de personas se incorporaron a las que pasan hambre. La mitad son niños. El número de niños que pasa hambre habitualmente se elevará hasta 125 millones en 2010. Según el banco mundial, entre 200000 y 400000 niños mueren al año por alimentación insuficiente. La recesión se agudiza y el precio de los alimentos ha comenzado otra vez a subir. Incluso aunque los alimentos bajaron de precio al comienzo de la crisis, los países pobres no vieron este espectro traducido embajadas de precios. Los mercados locales no reflejaban estas caídas de precios. El precio de los alimentos tocó fondo a finales de 2008, desde entonces han vuelto a subir un 26%. Ante esta situación los pobres reaccionan empobreciendo su dieta y aparece en consecuencia la anemia. Las remesas que los inmigrantes envían a los países pobres han caído también con fuerza. El desempleo crecerá en todo el mundo y los salarios bajaron adaptándose a las pautas que marca la deflación. La situación de la mujer es especialmente dramática, pues es el colectivo que primero de deteriorarse su situación financiera.
Bibliografía: The trail of disaster. The Economist June 20th 2009

26 julio 2009

Últimos desarrollos de la tecnología eólica en 2009

El pasado marzo, en European Wind Energy Conference and Exhibition (EWEC) se respira optimismo. El desarrollo de la energía eólica continuará floreciendo como una industria de alto crecimiento dinámico. Entre los hechos a destacar podemos mencionar que un gran número de fabricantes de turbinas inundan el mercado en busca de compradores, un hecho altamente positivo espectro épocas recientes en las que un reducido número de fabricantes se repartía el negocio. Ahora hay competencia y las opciones aumentan en el sector eólico. En Europa en particular se espera un rápido crecimiento en el desarrollo y demanda de turbinas de 2,5 Mw.

Entrada del sector aeroespacial en la industria eólica

En lo que muchos consideran una tendencia mayor de desarrollo, podemos destacar que las compañías aeroespaciales francesas EADS Astrium y EADS Composite Aquitaine han anunciado su desembarco en la industria eólica. Las dos organizaciones ofrecen una experiencia de más de 30 años en el desarrollo de estructuras de gran escala usando compuestos de alto rendimiento. Ambas compañías aportarán también capacidades avanzadas en el campo de la ingeniería (desarrollo de nuevas aspas y optimización de las existentes), fabricación, ensayo y control. Igualmente importante son las sinergias que pueden crearse entre el sector eólico y el aeroespacial, entre otras mencionamos la reducción de costes y más en, la mejora en requerimientos de fiabilidad y seguridad, y el desarrollo de elementos que resistirán grandes cargas bajo condiciones extremas. Entre los desarrollos previstos podemos mencionar aspas de longitudes 25-45 m destinadas a la clase 1-2 Mw. Un segundo paso implica el desarrollo de nuevas aspas de peso ligero para turbinas marinas.

Nuevos detalles emergentes

En el campo de los parques marinos podemos mencionar dos interesantes contribuciones provenientes de Ballast Nedam en Holanda. La primera es el One Lift Concept, cuyo objetivo es simplificar la instalación en las difíciles condiciones de estos parques. Sobre una estructura específicamente diseñada puede instalarse el conjunto completo góndola+rotor+tower, y para ello se utiliza un enorme barco de instalación. El segundo desarrollo, en una etapa menos avanzada es un nuevo sistema de cimentaciones de hormigón.

La compañía alemana Powerwind presentó su nuevo sistema de engranajes para turbinas de 2,5 Mw. El Powerwind 90 se caracteriza por su eje principal sostenido en dos engranajes principales. Este diseño está pensado para proteger la caja de engranajes del momento flector inducido por el rotor. Adicionalmente se incorpora un generador de magnetismo permanente refrigerado por aire y con un convertidor quien asegura la máxima calidad posible en la energía.

Nuevos modelos de turbinas

Global Wind Power (GWP) de India planea levantar un nuevo prototipo de transmisión directa en Holanda. La turbina, llamada GWP-82-2000kW se ha desarrollado por el pionero Henk Lagerwey y su equipo de diseño. Desde el punto de vista de diseño es interesante su generador de magnetismo permanente del tipo anular que usa refrigeración por aire pasiva. El diámetro del rotor es de 82,5 metros y la turbina está disponible con dos torres de acero tubular. Una torre híbrida de hormigón/acero esta disponible opcionalmente.

Siemens Energy ha introducido su nuevo modelo SWT-2.3-101. Según la compañía este modelo es ideal para condiciones de viento bajo o moderado.
Reflejando la tendencia de tamaños de rotor grandes para una capacidad dada, la danesa Vestas anunció dos nuevos modelos en febrero. Un nuevo 3MWV112-3.0MW (diámetro del rotor 112 metros), y su nueva turbina V100-1,8 MW. Comparada con la actual V90-3,0MW, el área de barrido del rotor se ha incrementado un 55%.

Bibliografía: Wind unveiled Technology on show at EWEC 2009

Palabras clave: High performance composites

23 julio 2009

Enfriamiento por absorción utilizando biomasa como combustible

En los lugares donde la electricidad no está disponible, mantener los alimentos refrigerados es un problema importante. Es por ello que se buscan alternativas como la utilización de energías renovables. Pero el uso de energías renovables con sistemas de refrigeración convencionales no es eficiente y suele requerir medios de almacenamiento de energía complementarios. Los motores de absorción y su uso en refrigeración es una tecnología conocida que tiene aplicaciones interesantes en este campo. Pero la utilización de hidrocarburos como combustibles también supone una desventaja especialmente en economías emergentes con gran dispersión de su población. Por este motivo, la solución tecnológica de la que hablamos hoy nos parece de interés especialmente para proyectos de desarrollo rural en lugares donde la energía es muy costosa.
Aes alternative energy solutions, acopla un enfriador con el motor de succión, hasta ahora nada nuevo, lo realmente novedoso es que esta solución utiliza residuos de biomasa como combustible. Consecuentemente, esta tecnología es útil para reducir la dependencia de los combustibles fósiles. El fabricante en su website defiende que el payback de la inversión es muy atractivo. Estos equipos pueden ser utilizados para enfriar procesos y también para propósitos de refrigeración. La tecnología aplicada al proceso es la gasificación, por lo que la flexibilidad del combustible y se maximizan y las emisiones se reducen dramáticamente.
Los equipos más pequeños que comercializa la empresa producen 300000 kcal/h, o una producción de vapor equivalente de 500 kg/h. Son equipos por lo tanto bastante grandes y aplicables a procesos industriales de tamaño medio.
El proceso de gasificación utilizado convierte materiales carbonaceos como carbón, petróleo o biomasa en carbono, monóxido de carbono, hidrógeno y dióxido de carbono. En el proceso de gasificación, el material se somete a tres procesos:
  1. Pirólisis (o devolatización): en esta parte del proceso las partículas se calientan. Los volátiles se liberan y el material pierde hasta 70 por ciento de peso. El proceso es por lo tanto dependiente de las propiedades del material.
  2. Combustión: Este proceso ocurre cuando los productos volátiles la reaccionan con oxígeno para formar a dióxido de carbono o monóxido de carbono, lo cual proporciona calor para las subsiguientes reacciones de gasificación. La Pirólisis y la combustión son procesos muy rápidos.
  3. Gasificación: el proceso de egasificación ocurre cuando el destilado reacciona con dióxido de carbono y vapor para producir monóxido de carbono e hidrógeno. El gas resultante se denomina syngas y puede ser convertido en electricidad de forma eficiente. El proceso de en gasificación refina elementos corrosivos como cloruros y potasio.

El fabricante realiza un análisis comparativo entre el uso de este sistema y una aplicación convencional de gas natural. El coste de capital es cinco veces superior en los equipos de biomasa pero el coste de operación es que los equipos de biomasa tan sólo un tercio al respecto a los de casa natural. En conclusión, hay que tener en cuenta en este tipo de inversiones que las necesidades de capital inicial siempre van a ser bastante más elevadas que las tecnologías convencionales. Sin embargo, los beneficios del sistema se obtiene sobre todo durante el servicio del equipo, especialmente en aquellos lugares que carecen de otros suministros y a la vez disponen de biomasa ilimitada.

Más información aquí

Japón se recupera, ahora si

Las exportaciones japonesas han caído menos de lo previsto en el mes de junio, lo que sigue confirmando el inicio de la recuperación global. La caída interanual de los envíos por mar al extranjero es de 35,7 %, frente al 40,9 % del mes de mayo. El crecimiento en china se está acelerando y impulsa las ventas de los fabricantes japoneses incluyendo Komatsu Ltd. Y Nissan Motor Co. Fíjense que hablamos de datos interanuales lo cual indica que en el último mes habido crecimiento de las exportaciones.
No hay duda que es china quien impulsa actualmente las exportaciones japonesas. Los fabricantes probablemente continuarán incrementando su producción en medio de una mejora de las exportaciones, y una mejoría de las perspectivas económicas.
El Banco de Japón ha elevado la semana pasada sus previsiones sobre la economía japonesa, citando el rebote en la producción de las factorías.
Según los analistas la segunda economía más grande del mundo se expandía a finales de junio a un ritmo anualizado del 2,4 %. La demanda subió en todas las regiones. También aumento la demanda desde Estados Unidos, y las ventas a Europa cayeron menos.
Según el Fondo Monetario Internacional, el rebote previsto para el próximo año será más fuerte de lo que inicialmente se pensaba.
El rebote del sector de construcción está siendo interesante. Komatsu, el segundo fabricante más grande del mundo de maquinaria para el movimiento de tierra espera que el final de año el crecimiento del mercado global será de un 15 %, superior al 10% registrado en2008.
La recuperación de Japón es muy importante para valorar la crisis global, pues las economías exportadoras pueden indicar la situación global, más que la suya propia.

Bibliografía: Bloomberg

22 julio 2009

Biblioteca de control del movimiento para sistemas PLC B&R

Una nueva TML_LIB_X20 Motion Control Library trasmite inteligencia en ambientes PLC B&R. La biblioteca es una colección de funciones y bloques de alto nivel que permiten el control de esta tecnología PLC B&R. La biblioteca trabajar con Automation Studio v3.0 SP3.

La biblioteca se complementa con funciones no de control del movimiento así como con bloques necesarios para trabajar con comandos. Todas las funciones de la biblioteca se han diseñado usando normas comunes de PLC para control del movimiento, por lo que se integran en cualquier plataforma de desarrollo que cumpla con CEI-61131-3.

En el enlace que adjuntamos podremos descargar un buen número de herramientas y ejemplos que ayudarán a implementar proyectos de control del movimiento: motores, comunicaciones en tiempo real, control de motores, etc.

Más información aquí

Se lanza al mercado un nuevo módulo de film solar

ENN Solar Energy Co., Ltd., ha introducido un nuevo producto solar de film solar delgado. Con esta tecnología, dos capas de silicio amorfo y micro-cristalino se aplican a un sustrato de vidrio. La capa de silicio amorfo absorbe luz de onda corta, mientras que la otra capa absorbe luz de onda larga. Los módulos de la compañía se producen en la línea de fabricación de SunFab.

La compañía defiende que el rendimiento por vatio o instalado es superior a las células fotovoltaicas convencionales. El payback de la inversión es la mitad que el silicio convencional.

La compañía está produciendo sus módulos en masa para alcanzar una capacidad de 60 MW a final de año.

El objetivo perseguido con este producto es incrementar el rendimiento a la vez que se disminuyen los costes de forma muy significativa. La disminución de costes puede alcanzar 30% de los precios actuales.

Más información aquí

Eficiencia energética en distribución de alimentos


Mucho hemos hablado en Todoproductividad de eficiencia energética, y más aún lo haremos en el futuro. El motivo es que al menos en este blog, y pese a la campaña mediática que los grandes lobbies del sector llevan a cabo de manera permanente, la conclusión que cada día parece más clara es que solucionar el problema energético no consiste en apoyar la construcción de grandes infraestructuras energéticas, sino en estimular la eficiencia energética y la generación distribuida.


Se requiere el un cambio profundo de mentalidad y se abren grandes campos de acción para la ingeniería y actividades asociadas. En este artículo, vamos a analizar con cierta profundidad uno de los estudios llevados a cabo por NREL (National Renewable Energy Laboratory), en los que se demuestra que pueden conseguirse ahorros espectaculares si conseguimos implementar actividades de eficiencia energética.

El trabajo que analizamos hoy ha estudiado el potencial de ahorro energético en el sector de la distribución de productos alimenticios, y en él se demuestra que el potencial de ahorro en esta actividad puede alcanzar el 50 %.
.
Metodología

Para estudiar las interacciones entre subsistemas en los edificios, NREL utilizó EnergyPlus, una herramienta de predicción. El concepto que se utilizó en los modelos se denomina medidas de diseño energético (energy design measures, o EDMs). Los EDMs entran en las siguientes categorías:
  • Tecnologías de iluminación: Densidad de energía de iluminación reducida (lighting power density o LPD), controles de ocupación, y controles de iluminación diurna.
  • Cargas en proceso y tomacorrientes: Densidad reducida.
  • Ventanaje: Cantidades y tipos de vidrios de fachada y claraboyas; voladizos.
  • Calefacción, ventilación y aire acondicionado: Equipamiento de alta eficiencia y ventiladores, economizadores, ventiladores con control de la demanda (demand control ventilación o DCV), ventiladores de recuperación de energía (energy recovery ventilators o ERVs), y enfriadores evaporativos indirectos.
  • Cerramientos: Aislamiento de cerramientos opacos, barreras de aire, y vestíbulos.
  • Equipos de refrigeración: Carcasas refrigeradas de alta eficiencia y condensadores evaporativos.
  • Generación: Generación de electricidad fotovoltaica.
Resultados

Los resultados obtenidos en el estudio de NREL muestran que puede alcanzarse un ahorro energético del 50 % de una forma efectiva en costes. En todos los lugares estudiados excepto en Miami pueden cumplirse los objetivos sin generación de electricidad fotovoltaica. Las siguientes medidas de diseño fueron recomendadas en todos los casos:
  • Reducir LPD en un 40 % y usar sensores de ocupación en zonas de almacenaje seco y oficinas.
  • Instalar ventiladores eficientes en las unidades de ventilación, aire acondicionado y calefacción de azoteas.
  • Sustituir los expositores de helados y comida congelada por modelos con puertas verticales eficientes con descongelador de gas caliente.
  • Sustituir los expositores de productos lácteos y delicia por modelos eficientes con puertas verticales.
Bibliografía:

  • E.T. Hale, D.L. Macumber, N.L. Long, B.T. Griffith, K.S. Benne, S.D. Pless, and P.A. Torcellini. Technical Support Document: Development of the Advanced Energy Design Guide for Grocery Stores—50% Energy Savings. Technical Report. NREL/TP-550-42829. September 2008.
Palabras clave: Indirect evaporative cooling,

21 julio 2009

Ecuador y su petróleo

La mitad de Ecuador se encuentra en la Cuenca del Amazonas, bosque lluvioso que desaparece más rápidamente que en los países vecinos. La explotación maderera, el furtivismo y la extracción de petróleo destruyen la selva. En los últimos años miles de personas han ocupado la selva huyendo de la violencia en Colombia. Las tribus nativas se han visto obligadas a huir a lo más profundo del bosque o desaparecer. El Presidente Rafael Correa ha propuesto salvar este bosque, especialmente el parque nacional de Yasuní. Estudios preliminares indican que en esta área puede haber 846 millones de barriles de petróleo, o alrededor del 20% de las reservas de Ecuador. Las compañías petrolíferas, incluyendo Repsol y andes petroleum ya extraen 59000 barriles diarios. Repsol controla estrechamente sus campos, evitando que sean colonizados. Más al este, petroecuador la compañía estatal y más contaminante del país está desarrollando un bloque adyacente. El Presidente Correa lanzó la idea en 2007 de que el mundo pagase a Ecuador por no explotar estas reservas. Al principio la idea cayó en saco roto, pero últimamente está ganando credibilidad. Se han emitido bonos por el Valor de las emisiones evitadas por no quemar el petróleo y preservar el bosque. El Valor de estos bonos este 5200 millones de dólares. Alemania ha concedido 425000 dólares para estudios de viabilidad y ha reiterado su apoyo. Se espera que el dinero venga de Europa y sin gobierno futuro intenta explotar este petróleo deberá pagar los bonos con intereses. El principal obstáculo del proyecto es la poca credibilidad de Ecuador. En diciembre el gobierno falló en sus pagos de la deuda.
Bibliografía: Trees or oil. The Economist July 4th 2009

Guinea ecuatorial y cómo el petróleo hace amigos

En los próximos meses Obiang Nguema celebrará el 30 aniversario de su golpe de estado, un largo periodo en el que ha sobrevivido a numerosos intentos golpistas. La antigua colonia española fue agraciada por la suerte en los años 90 al descubrirse ricos yacimientos de petróleo. Se convirtió rápidamente en el cuarto país africano en exportación de petróleo. Sus habitantes podría ser ricos y felices, pero pocos han disfrutado de los beneficios del petróleo. Según Transparency International, Guinea es el noveno país más corrupto del mundo. Menos de 2% de su pib se emplea en salud, y en educación tan sólo el uno por ciento. Pero el Presidente Nguema gasta sin recato alguno enormes sumas en defensa, en gastos como el alquiler de firmas de seguridad norteamericanas. El Presidente sabe que ganará las elecciones próximas, por cifras cercanas al 99% habitual. La presa crítica y sus oponentes están todos en la cárcel.

Pero Nguema es un firme aliado de estados unidos y Occidente. También España es amiga de Guinea, y Repsol va a volver a operar tras 30 años de ausencia.

Bibliografía: Oil makes friends of us all. The Economist July 18th 2009

La economía de Israel aguanta la recesión

El ministro de finanzas de Israel radia confianza. La economía de Israel, el insistió, puede superar los tumultos internacionales. La recesión ha demostrado que Israel es fuerte. Ahora es posible utilizar esta ventaja en la recuperación. Este optimismo está justificado pues la economía del país ha crecido en los últimos cinco años un promedio del 5%. Israel está sufriendo con el resto del mundo, especialmente sus exportaciones que suponen 1000044% del pib. Estas han caído un cuarto de este septiembre. El desempleo ha subido al 8% desde cifras del 6 %. Pero el gobierno no ha tenido necesidad de salvar bancos o aseguradoras. Los bancos y israelíes están limpios. Los prestamistas israelíes son de naturaleza cautelosa. El gobierno está invirtiendo mucho dinero en construir carreteras y escuelas para crear puestos de trabajo. El iva ha subido en Israel del 15,5 por ciento al 16,5 por ciento.

Entre los objetivos de Israel está que sus empresas necesitan ser más competitivas cuando la economía del mundo se recupere. El ministro de finanzas propone doblar las cifras de investigación y desarrollo. En Israel la recesión ha golpeado exclusivamente al sector privado y el sector público sigue boyante. Otras medidas a aplicar consisten en recortar el gasto de los ministerios en un 5 %, pero no todos creen que esto llegue a ocurrir. El presupuesto militar no se va recortar, un concepto que en Israel se considera sagrado-

Bibliografía: The government say it´s perky. The Economist July 11th 2009

Captura de datos y procesado de señales mediante sensores de caudal másico

Todos los medidores de caudal térmicos comparten un concepto básico: el caudal se mide mediante un efecto de enfriamiento en un elemento sensor caliente expuesto al medio fluyente.
El objeto que se calienta es un metal hueco, que a partir de aquí llamaremos thermowell (termopozo). Este dispositivo dispone de un elemento de calentamiento resistivo con wataje constante en su interior.
El parámetro que el sensor térmico responde de manera natural es la velocidad de la masa del gas. Los medidores de caudal térmicos son por lo tanto sensores al punto.
La diferencia de temperatura entre el cuerpo del thermowell y el medio fluyente es detectada por dos RTDS. Estos resistores, llamados RTD de referencia y activo, se montan en thermowells del mismo tamaño y forma que el thermowell calentador. El sensor de referencia se aisla térmicamente por una separación física. La diferencia de temperatura entre las dos RTDs varia inversamente al nivel de caudal. La relación logarítmica, aunque requiere linearización en la mayoría de los usos, minimiza los errores en un amplio rango de mediciones dinámicas.
Cuando el nivel de caudal se incrementa, la diferencia de temperatura decrece. Esta relación empírica, aunque estado dentro de un rango de temperaturas, se procesan digitalmente en el medidor de caudal para generar una señal de salida.
El nivel de caudal Másico se deriva simplemente multiplicando la velocidad de la masa por el área de sección transversal del área de paso. Se aplica un factor al resultado para corregir perfiles de caudal no uniformes. Donde el perfil está sujeto a cambios o incertidumbres los sensores térmicos se montan en una sonda que se extiende a través del área de paso.
Las ventajas inherentes a la técnica sensores de caudal térmico son muchas y se basan tanto métodos analógicos como digitales. El procesador digital, sin embargo, proporciona una mayor flexibilidad al tratar con magnitudes no lineales del mundo real y con las leyes naturales. La principal ventaja es la medición directa de de caudal Másico se incluye la complejidad añadida e inexactitudes acumuladas que aparecen en las correcciones separadas de tasas volumétricas para temperatura y presión. La forma logarítmica de la curva de calibración dar a estos instrumentos un rango dinámico muy extenso. El rango de inexactitudes típicas es de 1-3 % de lectura.
El pequeño tamaño de una sonda de punto único provoca muy pocos obstáculos o caídas de presión. Adicionalmente, pueden insertarse o retirarse sin cerrar el medio natural. La falta de partes móviles o frágiles hace que estos instrumentos sean altamente fiables y los métodos sensores sean inmunes a ruido y vibraciones. Ni la suciedad o limpieza vigorosa de los elementos sensores causa pérdidas sustanciales de exactitud.
Bibliografía: Walsh, T. S. Mass Flow Sensing: Data collection and Signal Processing. Fluid Components, In.

20 julio 2009

Necesitamos un robot de soldadura o estamos tirando el dinero

Muchos fabricantes creen que convertir sus procesos semiautomáticos de soldadura en un proceso completamente automático rápido y productivo es simplemente un asunto de decidir hacerlo y destinar dinero y tiempo. Nada más lejos de la realidad, pues no hay dinero peor empleado que comprar maquinaria de última tecnología y no conseguir integrarla convenientemente en un proceso industrial. La maquinaria de última tecnología es también sinónimo de depreciación rápida, no olvidemos eso nunca. En la mayoría de los casos, al plantearse la adquisición de un robot de soldadura la información se recaba de diversos fabricantes, pero no se recurre a opinión independiente. Pero como la mayor parte de las cosas de la vida, no es una cuestión tan simple. Conseguir las ventajas de una célula de soldadura robotizada requiere una cuidadosa valoración de los procesos actuales de soldadura y un plan detallado para automatizar.

Ventajas de la automatización

Ya sea un sistema de automatización o un robot completamente automatizado, el proceso de soldadura ofrece numerosos beneficios potenciales:
  • Incremento en la productividad.
  • Cosmética de la soldadura mejorada.
  • Menor coste de materiales por menor sobresoldado.
  • Costes de energía más bajos.
  • Costes de mano de obra más bajos.
  • Excelente fiabilidad.
  • Rápido retorno (ROI).

Pero para alcanzar todas estas ventajas es importante en primer lugar valorar lo adecuado que es el proceso para la automatización. Las variables que determinan la conveniencia para la automatización incluyen las piezas soldadas, volúmenes de piezas, instalaciones, energía entrante y personal.

Estudiando las piezas y el flujo del proceso

Los sistemas de soldadura automáticos se diseñan para acelerar y facilitar la repetibilidad. Las piezas que presentan huecos, desafíos de acceso o ajuste presentarán problemas en un proceso automatizado. También son difícilmente automatizables las piezas que requieren abrazaderas o herramientas intrincadas para sostenerlas en su lugar. Como norma, el operador de soldadura humano siempre lo hará mejor que un robot o automatización fija para piezas en las que las posiciones de soldadura tienen obstáculos o donde una pieza requiere una colocación precaria. Por el contrario, automatizar con éxito la soldadura de piezas fabricadas aguas arriba del proceso debe ser tan simple y consistente como sea posible de forma que el robot pueda ejecutar la operación en el mismo lugar una y otra vez (si los puntos que deben unirse se mueven, el robot no será capaz de soldarlos. En conclusión, lo primero que debemos estudiar en detalle son las piezas que vamos a soldar, y ello podemos hacerlo en colaboración con un integrador (OEM) de robots. Un dibujo electrónico CAD de la pieza, que el integrador pueda importar a su software de simulación, es una alternativa mucho mejor. Los dibujos CAD ayudan a visualizar la calidad de la soldadura planificada y cómo ajustar piezas y herramientas para optimizar el proceso de soldadura automatizada. Otra consideración que debe hacerse aguas arriba antes de la automatización es valorar el flujo de piezas. Si la empresa desea implementar la automatización de soldadura para aliviar un cuello de botella en la célula de soldadura, entonces debe valorar que no haya retrasos en la fabricación de piezas aguas arriba o se requiera re-trabajo antes de enviar las piezas a la célula de soldadura. El fabricante también necesita estar seguro de que el trabajador humano suministrando piezas a la célula robotizada puede acoplarse al tiempo del ciclo de la célula automatizada. Si estas soluciones no son posibles, las compañías pueden considerar que el fabricante de robots ofrezca también soluciones de automatización para aplicaciones aguas arriba. Estas máquinas están equipadas con sofisticados sistemas de reconocimiento de piezas que pueden recoger piezas, manipularlas a la orientación correcta y transmitirla a la célula de soldadura automatizada. Si los fabricantes dudan de la consistencia y del tiempo del ciclo de su proceso manual aguas arriba, puede considerarse una opción más cara.

Justificación de soluciones automatizadas con altos volúmenes de piezas

Para justificar una inversión en automatización, las compañías necesitan estar seguras que el volumen de piezas que necesitan producir es bastante alto, ya que el beneficio clave del robot es la capacidad para producir altos volúmenes de soldadura de calidad. Esta es la primera premisa que debe plantearse quien desee comprar un robot de soldadura. Realísticamente, sin embargo, muchos pequeños fabricantes pueden no tener aplicaciones con alto volumen de piezas. En estos casos, estas empresas pueden ser capaces de seleccionar dos o tres aplicaciones de menor volumen y programar un robot para soldar piezas diferentes. El volumen de piezas es el factor crítico que decidirá el retorno de la inversión. El motivo es bien claro, el 75 % del coste de un componente soldado con un equipo semiautomático es laboral. Consecuentemente, incluso si una empresa no aumenta la producción de piezas, puede justificar la inversión por la cantidad de trabajo laboral que se elimina en el proceso de soldadura.

Evaluando la empresa

Las empresas necesitan espacio para su automatización fija y sus robots, y en ese espacio físico se requiere que el flujo de materias primas sea mayor que en los procesos de soldadura semiautomáticos. Aunque la automatización de la soldadura puede consumir grandes espacios las plantas más pequeñas pueden hacer trabajos de automatización comprando piezas más pequeñas de equipos de automatización que estén programados para realizar múltiples tareas. Esta solución puede facilitarse adaptando robots con varios juegos de herramientas que les permitan trabajar en distintas actividades a la vez que ocupan espacios pequeños.

Cuando se integran células automatizadas probablemente se necesitarán fuentes de energía y ventilación adicionales. El suministro de energía óptimo para un fabricante que usa alimentación son 480 voltios trifásicos o similares.

Supervisión de células automatizadas

La automatización de los procesos de soldadura no necesariamente implica independencia completa de la supervisión humana. Un soldador experimentado que conozca el proceso deberá estar disponible para programar el robot o sistema de automatización fijo y con capacidad para resolver problemas en el proceso de soldadura automatizado.

Planificación previa para prevenir bajos rendimientos

El proceso de soldadura automático puede incrementar dramáticamente la producción al mismo tiempo que decrecen los costes laborales y mejora la calidad de la soldadura. La transición a la automatización, sin embargo, no debe hacerse impulsivamente – la automatización no se adapta a todos los procesos. Los fabricantes necesitan desarrollar un plan que tenga en cuenta una variedad de factores, incluyendo las piezas que se van a automatizar, la industria, el volumen de piezas previsto y el personal. Si se falla al completar esta evaluación nos encontraremos con soluciones de automatización imperfectas.

Bibliografía:

  • Kevin Summers, Business Development Manager, Robotics/Automation, Miller Electric Mfg. Co., and Rob Ryan, Product Manager, Automation Group and Thomas Jaeger, Engineering Manager, R&D and New Product Development, Tregaskiss Ltd.

19 julio 2009

Evaluación económica de la limpieza de suelos contaminados con hidrocarburos

La evaluación económica de la limpieza de suelos es importante en las áreas de explotación y tratamiento de hidrocarburos. En este artículo hablamos del tratamiento biológico, que suele ser suficiente donde la concentración de hidrocarburos es menor de 500 ppm. Estas técnicas biológicas están ganando popularidad de manera creciente por la alta aceptación del público hacia este tipo de acciones.

No hablamos de técnicas nuevas, pues durante muchos años los residuos del petróleo se han tratado usando métodos simples y poco costosos de tratamiento biológico. Típicamente, el tratamiento implica el control del oxígeno, nutrientes y humedad (para optimizar la actividad microbiológica.

Los sistemas bioventing son algo más complejos, con un coste también ambo mayor. Se usan en suelos con hidrocarburos no-volátiles. La tecnología de extracción de vapor (air stripping) de los componentes volátiles se combina con el acondicionamiento del suelo (tal como adición de nutrientes) para realzar la degradación microbial. Este método de tratamietno puede usarse in situ o ex situ. Los espacios relativos de tratamiento de tierra requeridos son reducidos. El tiempo de tratamiento es del orden de semanas o meses.

Los bio-reactores son alternativas biológicas más complejas y caras. Pueden limpiar agua contaminada, o sólidos mezclados con agua (slurry bioreactors). El reactor puede configurarse con diversas opciones. Los costes más altos se justifican por un tratamiento de tiempo más rápido (del orden de horas o días y por su capacidad para degradar contaminantes en lugares difíciles como la roca madre.

La siguiente tabla compara entre sí las tecnologías más comunes actualmente en uso.

Tipo/coste ($/yd3)

Ventajas

Desventajas

Tratamiento de suelo ($30-$90)

  • Pueden usarse para tratamiento in o ex situ dependiendo del contaminante y tipo de suelo.
  • Se genera poco o ningún chorro residual.
  • Es una tecnología probada para muchos compuestos del petróleo.
  • Puede usarse como tecnología de perfeccionamiento siguiendo al lavado de suelos o tratamiento biolechada.
  • Eficiencia en la destrucción moderada dependiendo de los contaminantes.
  • Tiempo prolongado de tratamiento relativo a otros métodos.
  • El tratamiento in situ sólo es practicable cuando la contaminación está a menos de 60 cm de la superficie.
  • Requieres un área para la célula de tratamiento relativamente grande.

Bioventing ($50-$120)

  • Excelente retirada de compuestos volátiles de la roca madre del suelo.
  • Dependiendo del método de tratamiento de vapor, poco o ningún chorro de residuos se elimina.
  • Tiempo de tratamiento moderado.
  • Puede usarse para tratamiento in situ o ex situ dependiendo del contaminante y tipo de suelo.
  • El tratamiento de vapor usando carbón activado puede ser caro en altas concentraciones de contaminantes.
  • El sistema requiere tolerar el aire para su operación.

Biorreactor ($150-$250)

  • Separación mejorada de muchos contaminantes del suelo.
  • Excelente eficiencia en la destrucción de contaminantes.
  • Tiempo de tratamiento.
  • Altos costes de movilización y desmovilización en pequeños proyectos.
  • Los requerimientos de manejo de materiales incrementan los costes.
  • Debe eliminarse el agua de los sólidos tratados.
  • La aplicación a gran escala es bastante reciente.

Como vemos en la tabla el rango de costes es importante por lo que en cada caso es preciso estudiar la solución más efectiva en costes para el nivel de limpieza deseado. Para seleccionar el método adecuado es preciso investigar en detalle el sitio y estudiar la viabilidad del proyecto.

Bibliografía:

  • Hicks, T.G. Handbook of civil engineering calculations. McGraw-Hill
  • Environmental Protection Agency (EPA) Method 8015M

Palabras clave: Bioslurry treatment

18 julio 2009

Aumentando la eficiencia en planta del aire comprimido

El aire comprimido es una de las formas menos eficientes de energía que pueden usarse en plantas de fabricación modernas. Se emplea 7 u 8 veces más electricidad para producir un caballo de vapor con aire comprimido que con un motor eléctrico. El aire comprimido es a menudo el mayor uso final de electricidad en una planta. Hay muchas acciones que pueden hacerse en una planta que pueden conseguir incrementar fácilmente la eficiencia de los sistemas de aire comprimido y decrecer el uso de energía de aire comprimido en un 20 % o más. Contaminación típica en el sistema de aire comprimido La cantidad de contaminantes se multiplica cuando el aire se comprime a la presión de trabajo. A 8 bares habrá 8 veces más contaminantes por m3 sin incluir la contaminación introducida dentro del compresor o en sistema de distribución. Por ejemplo, un sistema con un compresor lubricado de tornillo de 25 m3, funcionando durante 6000 horas, a una temperatura ambiente de 25 ºC y 85 % de HR, introduce alrededor de 100.000 litros de condensados sucios y ácidos mezclados con partículas. Condiciones de mayor humedad o temperatura producen todavía mayores condensados. El punto de rocío o de condensación es la temperatura en la que el aire está saturado de vapor de agua. Esta saturación completa corresponde a una humedad de 100 %. En el momento en que la temperatura del aire es inferior a ese punto, empieza la condensación del aire húmedo. Si las temperaturas son inferiores a 0 ºC, se forma hielo. Este fenómeno puede limitar considerablemente el caudal y el funcionamiento de los componentes incluidos en una red neumática. Cuanto menor es el punto de rocío, tanto menor es la cantidad de agua que puede retener el aire. El punto de rocío depende de la humedad relativa del aire, de la temperatura y de la presión. Una de las acciones que pueden llevarse a cabo para aumentar la eficiencia del sistema de aire comprimido es un sistema que interrumpa la demanda del secador desecante (HDD). El HDD es típicamente un punto de uso mayor de aire comprimido y algunos de estos secadores llegan a usar hasta el 18 % de la capacidad de aire comprimido. El HDD opera para mantener el aire comprimido a un punto de rocío a una presión especificada; usualmente – 40 º o – 70 ºC. El secador utiliza dos recipientes a presión (a veces llamados torres duales) llenos con un desecante tal como aluminio activado, gel de sílice, o malla molecular. El aire comprimido pasa a través del lecho desecante antes de ser distribuido en la planta. Cuando el aire pasa a través del desecante, el vapor se retira del aire a través de un proceso llamado adsorción. Cuando el aire comprimido pasa a través de un recipiente donde el vapor de agua está siendo adsorbida, el desecante en el otro recipiente se somete a regeneración donde el vapor de agua que fue previamente adsorbido es eliminado. La regeneración es llevada a cabo por la extracción de una porción de aire seco cuando sale el recipiente activo, expandiendo este aire a la presión atmosférica y pasa sobre el desecante que se está regenerando. El aire que se extrae sale al recipiente activo en forma de aire de purga. Cuando el aire de purga se expande a la presión atmosférica llega a estar muy seco y se separan las moléculas de vapor de agua fácilmente. El aire de purga y la energía requerida para producir el aire comprimido extra para cumplir el requerimiento de regeneración es el coste de energía directo que se requiere para operar el secador. El ciclo del secador se refiere al tiempo en el que se pasa de una torre a otra. Un tiempo de ciclo típico es alrededor de diez minutos. Durante este ciclo, el secador cambiará a la vez de forma que cada torre esté online durante cinco minutos y se regenere cinco minutos. El tiempo del ciclo se determina por el fabricante y dependerá del punto de rocío que se especifique y de la cantidad de desecante en los recipientes. El tiempo del ciclo y la cantidad del desecante se determina basándose en las condiciones del caso peor; caudal de aire nominal del secador, temperatura de aire de 35 ºC, humedad relativa 100 % y presión 7,9 bares. El secador está demandando constantemente aire de purga basándose en este diseño, y por tanto consume siempre energía. Utilizando un sistema DDS, el cambio en las torres del aire de purga no se produce cada 5 minutos, sino que el ciclo se basa en la temperatura del punto de rocío según medición a la salida del secador. Esta conmutación adaptativa produce un ahorro energético significativo.
Bibliografía: Increasing compressed air plant efficiency Palabras clave: Heat-less desiccant dryer (HDD)

17 julio 2009

Aumenta el interés por la energía termosolar

Si bien la tecnología de torre térmica solar se conoce desde los 70, hasta la fecha sólo una planta genera energía comercialmente. Abengoa Solar´s 11-MW PS10 tower, una planta conectada en Andalucía desde principios de 2007. Debido a que esta tecnología depende del calor de la energía solar que se refleja en una estructura de espejos (heliostatos) hacia el receptor montado en una torre, estas instalaciones tienden a ser específicas del sitio, caras, y de alto mantenimiento.
Según cuenta Agengoa en su sitio web, una de las mayores dificultades es el control del campo de 624 heliostatos. Los heliostatos son paneles verticales que cada uno mide 120 m2, y deben ser protegidos de los fuertes vientos, que pueden dañar su integridad estructural. Si no se enfocan apropiadamente, pueden dañar el receptor. Si están sucios pueden reducir la ya baja eficiencia total (15,45 %) del sistema.
Pese a las dificultades, Abengoa y otras entidades en varios países consideran la tecnología factible y fiable. Abengoa inaugurará en pocos meses una segunda planta de generación, la PS20, en unos terrenos adyacentes a la PS10. Como la PS10, la PS20 usará agua como fluido de operación, obteniendo 55 MWt de vapor saturado a 250 ºC que hará girar una turbina generadora de electricidad. Esta nueva planta usará 1255 heliostatos, y se espera produzca 20 MW de potencia.
Varios proyectos más se encuentran en el horizonte. BrightSource Energy, comenzará este año a construir la primera de las tres fases de Ivanpah Solar Power Complex, que generará 400 Mw en el desierto Mojave, California. Las primeras dos fases requerirán la instalación de 100.000 heliostatos, la planta completa ocupará un área de 3.900 acres.
La compañía española SENER, está construyendo en Andalucía una planta de 17 Mw, con un campo de espejos que medirá 298.000 metros cuadrados. Esa planta entrará en operación en 2011 y usará sal fundida a 565 ºC para transferir el calor.
La tecnología de sal fundida fue desarrollada mediante un proyecto piloto por el Departamento de Energía de USA en los 90. Este método dará a la planta española una ventaja de almacenamiento de 647 MWh (permitiendo 15 horas de carga de turbina).
Más recientemente, la firma alemana Kraftanlagen München está completando la construcción de una torre de potencia, un proyecto de 1,5 MWe basado en el efecto volumétrico para incrementar la eficiencia.
Naciones como Namibia, Marruecos e India están esperando un ensayo australiano para una tecnología de torre solar que usa una corriente de aire ascendente en forma de chimenea para impulsar las turbinas y tiene la capacidad potencial de unos 400 MW. Esta tecnología se basa en el prototipo español Manzaneres de 50 kw, que ha estado operativo durante 7 años.
Incluso China ha entrado en el juego. La China Academia of Science ha diseñado y va a empezar a construir una torre solar en 2010. El proyecto Dahan tiene un coste de 14,6 millones de dólares y su potencia es de 1 Mw. Comprenderá 100 heliostatos curvados para concentrar la radiación en una torre de 100 metros de altura, usando agua como fluido de transferencia de calor. La planta difiere en dos cuestiones respecto a las tecnologías existentes. En primer lugar, tiene un sistema de almacenaje térmico en dos etapas: Un depósito de almacenaje a alta temperatura usará “aceite conductor” para producir vapor sobrecalentado mientras un segundo depósito a baja temperatura aguas abajo usará vapor como medio de almacenaje para producir valor saturado. En segundo lugar, para hacer completo uso de la tierra en la planta, será posible cultivar el suelo bajo los heliostatos.
Bibliografía: Interest in Solar Tower Technology Rising. Power May 2009
Palabras clave: Thermal tower technology, molten salt technology

Continúa el drama de la industria española

La industria española es el principal sector que tarde o temprano nos ayudará a salir de la crisis, pero no olvidemos que la mayor parte de la industria del país está ligada también al sector de la construcción. Desde la fabricación de equipamiento doméstico a todo tipo de accesorios para el jardín o piscinas pasando por extintores, maquinaria de obra, cuadros eléctricos, etc, etc. Los polígonos industriales están llenos de este tipo de empresas que obviamente no van a sustituir a la construcción y están siendo severamente afectadas. Y esto sí que es grave porque está cayendo la "actividad productiva", la que mantiene al resto.

Los datos son concluyentes, según noticia publicada en El Economista, la industria española facturó en mayo el 29% menos que en el mismo mes de 2008, mientras que la entrada de pedidos disminuyó el 29,5% (los datos proceden del Instituto Nacional de Estadística - INE.

Así, el índice de la entrada de pedidos acumula diez retrocesos consecutivos desde agosto pasado y el de facturación industrial ocho desde octubre, lo que refleja un retroceso de la demanda y del consumo en la actual coyuntura económica.

No obstante, las caídas de la facturación industrial y de la entrada de pedidos en este sector fueron menores que en abril, cuando disminuyeron el 32,1% y el 31,1%, respectivamente.

La estructura de costes de un proyecto y su utilización por los no entendidos

La contracción económica reajusta los sistemas empresariales de forma brusca y las empresas que no pueden resistir el empequeñecimiento del mercado acaban desapareciendo. Los márgenes empresariales se estrechan, desaparecen y la empresa acaba entrando en pérdidas. Miles de pequeños y medianos empresarios se encuentran impotentes porque no saben qué hacer. Lo que les ha funcionado 20 ó 30 años ahora ya no es útil y se sienten impotentes para salvar su negocio.
Pero aparte de resistir, podemos hacer otra cosa, compleja pero más eficaz, y es reorientar nuestro negocio. Es lo que hacen las más emprendedoras, tratar de innovar o acceder a nuevos mercados y sobre todo buscar las extraordinarias oportunidades que en toda crisis aparecen. Pero para reorientar nuestro negocio cuando los medios son exiguos hay que ser imaginativos y desde luego autodidactas. De lo que en periodos de holganza podíamos prescindir, ahora se convierte en un elemento de gestión empresarial vital.
En este artículo vamos a hablar con cierto detalle de algunas herramientas y conceptos de gestión económica empresarial que deben conocerse cuando nos aventuramos en un nuevo negocio y deseamos aumentar las posibilidades de éxito con una buena sistemática de gestión de costes. Son ideas convencionales que resumiremos para aplicar a la industria y a la ingeniería y lo haremos de forma práctica para que pueda ser entendidas por cualquiera sin entrar en farragosas fórmulas que a la hora de la verdad ya sólo usan las máquinas. Se trata de captar la idea de cómo podemos profundizar en el conocimiento de nuevas herramientas de gestión y de lo que realmente nos interesa a la hora de valorar o estudiar el proyecto, y evitar de esa forma divagaciones estériles.

¿Por qué debemos conocer estas herramientas?

Pues muy sencillo, ya lo hemos dicho antes. El primer problema que surge al reorientar una actividad empresarial es la gestión de los costes y los beneficios. Lo que la empresa ha ido aprendiendo a lo largo de los años, ahora debe ser asimilado en semanas o meses y ello sólo puede hacerse utilizando herramientas de gestión económica que de forma sencilla y fiable nos ayuden a traducir los nuevos conceptos de gestión empresariales a los viejos conceptos que conocemos: salarios, mercaderías, etc.

Costes y beneficios

Cualquier proyecto, ya sea simple o complejo, implica costes y beneficios. Al comienzo del proyecto se requerirán inversiones, pero tan pronto como el proyecto esté en fase de operación, aparecerán costes y beneficios, que podrán ser tangibles o intangibles. Los beneficios o costes no siempre se dan en términos monetarios pero deben convertirse en términos monetarios para propósitos de comparación. La conversión monetaria de los costes y beneficios intangibles presenta más dificultad, hablaremos en el futuro de ello, hoy nos centraremos en los activos tangibles, los que van del saco de cemento al tiempo que se tarda en realizar una operación de soldadura, los que podemos calcular, estimar o medir con un reloj.

El valor del tiempo

Los costes y beneficios no siempre ocurren simultáneamente; ocurren en diferentes momentos de tiempo durante la vida del proyecto. En la mayoría de los casos debe tenerse en cuenta el momento de la ocurrencia del valor agregado de los costes y beneficios. Podemos ver la repercusión de estos costes y beneficios si consideramos el ejemplo del promotor de un edificio. Los ítems de coste son la compra de tierra, diseño y construcción. Tan pronto como el desarrollador comienza a vender casas, los beneficios entran, pero ya que no todas las casas se venden a la vez, el promotor tendrá que soportar en cada momento el coste de las casas no vendidas. El valor monetario del tiempo a lo largo de un proyecto se considerará en forma de tipos de interés.

Rate of return (ROR)

La tasa de retorno es otro método útil para comparar las ventajas financieras de un sistema alternativo usando un diagrama de cash flow. Mediante este método calcularemos el tipo de interés que hace el valor neto presente igual a cero. Esta tasa se llama tasa de retorno (ROR). Si la tasa es mayor a la mínima que satisface al inversor o al gestor del proyecto, entonces el proyecto es aceptable. El valor mínimo se denomina Minimum aceptable Rate of Return (MARR).

La asimilación de estos conceptos ayuda a avanzar enormemente en los nuevos proyectos pues elimina incertidumbres y permite cuantificar con precisión lo que realmente a cada uno le importa, lo que va a ganar en el proyecto. Puede parecer una tontería pero muchos proyectos se bloquean porque la gente se preocupa más de lo que van a ganar los demás que de lo que van a ganar ellos mismos. ¿Cuál es tu MARR? ¿El 11 %? Pues limítate a gestionar ese 11 % y no te preocupes de lo demás, seguro que así te van bien las cosas.

Ratio beneficio-coste y métodos de payback

Otros métodos para valorar la viabilidad de un sistema o comparar varios sistemas es calcular el valor presente neto de los costes y beneficios y obtener el ratio beneficio coste (B/C).

Inflación y poder de compra

La inflación refleja el poder de compra del dinero y es otro de los conceptos que debemos saber valorar convenientemente en los proyectos ejecutados durante un tiempo determinado. Los inversores deben saber que ellos deben ganar lo suficiente en su inversión como para compensar la inflación. Por lo tanto, el MARR debe ajustarse para reflejar el tipo de inflación durante el periodo de la inversión. Y cuando hablamos de inflación, debemos extender el concepto a los cambios de cotización de las divisas, que son muy intensos fuera de las economías más estables.

Analizando la estructura financiera de una inversión

La parte más importante del análisis financiero es la construcción del diagrama de cash flow. El resto del análisis consiste en una serie de cálculos usando fórmulas matemáticas. El diagrama del cash flow es la representación pictórica de la entrada y salida de dinero como resultado de la operación del sistema.

Los valores anuales del cash flow se obtienen directamente del planteamiento del problema aplicando efectos de depreciación, ganancia o pérdida de capital, divisas, etc. Después de construir el diagrama del cash flow, los valores anuales pueden entrarse en una hoja de cálculo, y usando los comandos adecuados, el computador proporcionará (NPW, EUAW, y ROR). En Todo para facilitar el cálculo se incluyen muchas herramientas gratuitas que realizan estos cálculos fácilmente.

Depreciación, Book Value y ganancia de capital

Cuando un equipo se usa durante varios años, el coste de su adquisición se recuperará en varios años, a este proceso se denomina depreciación.

Estimación y cálculo de Lifetime Worth (LTW)

Hasta hace algunos años, el precio de compra era la única consideración cuando se tomaba una decisión en relación a la compra de un nuevo ítem. Conforme los sistemas se hacían más y más complejos, otros costes tales como los operacionales y de mantenimiento se tomaban también en consideración. La extensión natural de estas consideraciones fue la noción de vida del sistema.

Para estimar la vida del sistema, lo primero que debemos tener en consideración es el coste durante toda la vida útil, o Lifetime Cost (LTC), que es un aspecto competitivo a considerar en los proyectos.
El término LTW refleja la ganancia o pérdida asociada a la vida total del sistema, y será usado cuando entren en consideración otras cuestiones aparte del coste.
La descomposición y análisis durante la vida del proyecto en componentes es importante para estudiar los costes y beneficios durante toda la vida del sistema. Las fases en las que podemos dividir un proyecto de ingeniería son las siguientes:
  • Diseño conceptual y desarrollo: Las diferentes alternativas se evalúan y se considera el uso de diferentes tecnologías.
  • Diseño, ingeniería, prototipos y ensayos. En esta fase se completa la configuración total del sistema. Usualmente se realiza un prototipo o un proyecto piloto y se testea. Las modificaciones como resultado del test se incorporan al sistema. Se genera documentación de producción, operación y mantenimiento.
  • Fabricación, ensayo, embalaje y reparto.
  • Instalación, operación y mantenimiento.

La estimación y cálculo del LTW se realiza a partir de la representación del Cash Flow. Es importante asegurar que se consideran todas las tareas o actividades que implican costes y beneficios, y se incluyen en el diagrama de Cash Flow: Costes de adquisición, operación y mantenimiento, reparación, pérdidas de producción durante las reparaciones, etc.

Estructura de descomposición de costes y trabajo (WBS-CBS)

La descomposición de la estructura de costes se ha probado como de gran valor para demostrar el impacto de cambios de lógica comercial en las organizaciones.

La estructura de descomposición a nivel de trabajo exhibe las actividades en cada fase de la vida del sistema. Esta estructura se obtiene especificando cada actividad realizada para completar el trabajo o proyecto y luego conectándolas de forma lógica. Tenemos que obtener los recursos de detalle requeridos para completar cada actividad y el coste de recursos totales correspondientes en términos monetarios. Cuando el proyecto comienza a ejecutarse usualmente proporciona algún beneficio. La línea de tiempo completa de los costes y beneficios proporcionará el diagrama de cash flow a partir del cual el valor en el tiempo del proyecto puede ser calculado. La estructura de descomposición de los trabajos combinada y la estructura de beneficios de coste ayudará a identificar todos los costes y beneficios asociados con el desarrollo, producción y operación del sistema. CBS se usa por el fabricante para estimar el coste unitario del coste del sistema.
La estimación del valor en todo el tiempo de vida del proyecto usando el cash flow permite tomar en consideración efectos como las tasas y la depreciación. Hoy en día los farragosos cálculos de los indicadores financieros se alivian "relativamente" auxiliándonos de calculadores que nos ayudarán a calcular los indicadores financieros que nos servirán para calcular NPW, EUAW, ROR, etc.
Si disponemos de todos los costes, junto con el tiempo de ocurrencia, podremos obtener un diagrama lifetime cash flow, y calcular el NPW del sistema usando un MARR apropiado. Tenemos que recordar que estamos estimando estos costes y beneficios y su tasa de cambio en el tiempo. Al calcular el LTW de esta manera, estamos incluyendo el efecto del valor en dinero del tiempo. Otra ventaja de calcular el LTW usando el cash flow es que pueden tomarse en consideración los efectos de la depreciación y tasas.
A partir de toda la información anterior pueden desarrollarse fácilmente hojas de cálculo para calcular el LTW. La ventaja de este sistema es que podemos realizar fácilmente análisis de sensibilidad usando diferentes tipos de interés, tasas, cambios de cotización en divisas, etc. El análisis de sensibilidad nos permite comprender el riesgo que estamos asumiendo en el proyecto.

Estimaciones de costes Lifetime

Las cantidades y el tiempo de ocurrencia no siempre son conocidos, por lo que los métodos de análisis financieros para calcular los costes a lo largo de todo el tiempo de vida del proyecto no pueden ser usados. En estos casos, normalmente se usan datos históricos del mismo o similar tipo de sistema. Estas estimaciones se realizan con más facilidad para cada elemento de la estructura de descomposición del trabajo. Tres métodos se estiman para realizar estas estimaciones de costes y beneficios cuando el sistema está en operación: Estimación paramétrica, estimación comparativa y estimación de ingeniería.

Estimación paramétrica

En este método, se obtienen los datos históricos, se clasifican y tabulan como una función de uno o más atributos o parámetros del sistema. La categorización y clasificación son muy importantes en la aplicación de la estimación LTC. Parámetros como rendimiento del sistema, peso, tamaño, velocidad, exactitud, complejidad, etc., son elegidos como variables independientes. El coste de cada elemento en la vida del producto es relacionado con uno o más d elos parámetros mencionados arriba o cualquier otro parámetro apropiado. El análisis de regresión se usa para construir las relaciones entre el LTC y estos parámetros. Estas relaciones se denominan Cost Estimating Relationships o CERs.

Estimación de ingeniería

En este método, se usa la estructura de descomposición del trabajo como hoja de trabajo básico. Después de construir la WBS, los ingenieros y estimadores descompondrán cada tarea o evento en fuerza laboral, material, equipo, gastos generales, y otros elementos constituyentes. Seguidamente se usa el coste de cada tarea según las condiciones de mercado.

Aplicando los métodos anteriores, dependiendo de muchos factores, pueden conseguirse estimaciones cuyo rango de exactitud va del 60 % al 95 %

Bibliografía:

  • Ardalan, A. Economic & Financial Analysis for Engineering & Project Management. Technomic Publishing Company, Inc.
  • Lahikainen, T. et al. Reflecting Business Logic Change with Cost Breakdown Structure. Cost Management Center. Finland.

Palabras clave: Work and Cost Breakdown Structure (WBS-CBS), Lifetime worth estimation (LTW), Equivalent uniform annual worth (EUAW), Net Present Worth (NPW), Benefit-cost ratio (B/C)

15 julio 2009

Sobre las últimas Tecnologías de licuefacción del gas natural

El proceso de licuefacción del gas natural

El gas natural puede obtenerse directamente de la tierra como un flujo de fluido que debe ser procesado antes de su uso comercial. Normalmente el gas requiere primero un pre-tratamiento para quitar o reducir el contenido de impurezas tales como dióxido de carbono, agua, sulfuro de hidrógeno, mercurio, etc. Antes de ser transportado a su punto desudo el gas debe ser licuado (GNL), y de esa forma el volumen se reduce unas 600 veces. Puesto que el gas natural es una mezcla de gases, licua en un rango de temperaturas. A presión atmosférica, el rango de temperaturas usual en el que ocurre la licuefacción ocurre entre -165 ºC y – 155 ºC. Por otra parte, ya que la temperatura crítica del gas natural está entre – 80 ºC y – 90 ºC, el gas no puede licuarse solamente por compresión, es por lo tanto necesario usar procesos de enfriamiento. La tecnología de licuefacción del gas natural está en pleno desarrollo, y son muchos los avances en los últimos años. En este artículo revisamos los más recientes, y para ello hemos estudiado las últimas veinte patentes aprobadas en Estados Unidos. Sólo las últimas veinte, porque hay más de mil patentes que tratan sobre este proceso de enfriamiento.

Los diferentes refrigerantes usados en el proceso de enfriamiento

El enfriamiento del gas natural se consigue utilizando diferentes ciclos de enfriamiento. Podemos hablar por ejemplo del uso de refrigerantes gaseosos utilizados en intercambiadores de calor como medio para enfriar el gas natural, y del el método de tres ciclos de enfriamiento en cascada. En tales cascadas, la refrigeración puede ser proporcionada por metano, etileno y propano en secuencia. Otro sistema conocido usa gases de hidrocarburos como propano, etano y metano en un único ciclo y un ciclo de refrigeración de propano separado para proporcionar enfriamiento de la mezcla de refrigerante y gas natural. El uso de hidrocarburos como refrigerantes es peligroso especialmente en ambientes confinados.

Un método alternativo es el desvelado por la US Patent 6023942, que propone el uso de dióxido de carbono como refrigerante. Este método puede utilizarse en tierra pero presenta problemas en plataformas marinas. Ya que depende de un proceso de expansión en bucle abierto como medio principal para enfriar el chorro de GNL. Los procesos de expansión como este no permiten se alcancen temperaturas lo suficientemente bajas y por ello el GNL tiene que mantenerse a muy altas presiones para mantenerlo en forma de líquido. Por motivos de seguridad y económicos estas altas presiones no son apropiadas para ambientes industriales. Un método alternativo es la utilización de procesos basados en el ciclo del nitrógeno (ver US Patent 6631626), pero tiene la desventaja significativa de una eficiencia térmica mucho más baja que en un sistema basado en hidrocarburos. Asimismo, ya que el nitrógeno tiene una baja transferencia de calor, se requiere una gran área de transferencia de calor para disipar el calor residual del proceso en un medio de enfriamiento. Hay que indicar también que en cualquier proceso de licuefacción de chorros de GNL la presencia de nitrógeno es problemática debido a la solubilidad de estos componentes en el GNL presurizado. Además, las concentraciones elevadas de nitrógeno en el ciclo de metano abierto puede incrementar los requerimientos de refrigeración y originar varios problemas operacionales. En esta patente se describen algunos métodos para la retirada del nitrógeno. La US Patent 7386996 utiliza recientemente un nuevo proceso basado en dióxido de carbono como refrigerante pero con un circuito de pre-enfriamiento proporcionado con una disposición en cascada con el circuito de enfriamiento principal. Este ciclo evita el peligro de los hidrocarburos en el circuito de refrigeración principal, a la vez que reduce sensiblemente el consumo energético. Como indicábamos anteriormente, en una disposición en cascada, el circuito de enfriamiento se lleva a cabo por una serie de ciclos de refrigeración que están típicamente en forma de sistema de bucle cerrado. La disposición es tal que el chorro de gas pasa a través de una serie de intercambiadores de calor interrelacionados que están dispuestos de forma que al menos un chorro de refrigerante pasa a través de una pluralidad de intercambiadores de calor en secuencia. La configuración es tal que el chorro de gas natural pasa a través de una serie de intercambiadores de calor que son dispuestos de tal forma que al menos un chorro de refrigerante pasa a través de una pluralidad de intercambiadores de calor en secuencia. Preferiblemente dos o más chorros de refrigeración se usan y la disposición puede ser tal que el chorro pasa a través del intercambiador de calor

Circuito para el aprovechamiento del exceso de presión para realizar un trabajo

La US Patent 20060112725 ha desvelado recientemente un proceso de licuefacción de un chorro de gas natural comprende los siguientes pasos:

(a) Proporcionar el chorro de gas natural presurizado a una primera presión y una temperatura;

(b) Enfriamiento del chorro de gas natural presurizado por intercambio de calor directo con un chorro de refrigerante frío para producir un chorro de gas natural presurizado a una segunda temperatura más fría que la primera temperatura;

(c) Expansión del chorro de gas natural presurizado enfriado en un dispositivo de expansión, donde el trabajo de expansión del dispositivo de expansión se usa para impulsar un compresor que comprime el chorro de refrigerante y presurizarlo, la expansión resultante es un chorro frío que es dirigido a la zona de licuefacción de gas natural;

(d) Enfriamiento del chorro de refrigerante presurizado para producir un chorro de refrigerante presurizado al menos parcialmente condensado.

(e) Expansión del chorro parcialmente condensado para producir el chorro empleado en (b);

(f) Licuefacción del chorro de alimentación frío en la zona de licuefacción de gas natural.

Circuito en cascada de tres etapas

La US Patent Application 20080006053 desvela un método para licuefacción de gases ricos en hidrocarburos. En este proceso el gas fluye a través de una cascada de tres etapas de refrigeración, cada etapa comprendiendo un circuito de refrigeración y un compresor, donde al menos parte del flujo de refrigerante del segundo circuito se usa para el pre-enfriamiento del gas rico en hidrocarburos en la primera etapa de refrigeración. De esta forma se equilibra la carga en cada compresor. Estandarizando las unidades de impulsión y los compresores de los tres circuitos de refrigerante, es posible maximizar la capacidad de licuefacción del proceso usando unidades de transmisión y compresores probados. Este método puede aplicarse a cascadas de refrigerantes mixtos y circuitos con pre-enfriamiento de dióxido de carbono.

Otros procesos

  • La US Patent 20060137391 describe un método para mejorar el ciclo de expansión multi-etapa reduciendo la presión del GNL presurizado y enfriado a casi la presión atmosférica.
  • Otra solución se describe en la US Patent 20050268649. En esta patente se desvela un proceso para conseguir la licuefacción del gas natural en conjunción con la producción de un chorro de líquido que contiene predominantemente hidrocarburos más pesados que el metano. En el proceso, el chorro de gas natural que es licuado se enfría parcialmente, se expande a una presión intermedia, y es suministrado a una columna de destilación. El producto del fondo de esta columna de destilación preferencialmente contiene la mayoría de cualquier hidrocarburo más pesado que el metano que de otra forma reduciría la pureza del gas natural licuado. El chorro de gas residual de la columna de destilación se comprime a una presión intermedia, y se enfría a baja presión para condensarlo, y luego se expande a baja presión para formar el choro de gas natural licuado.