Mostrando entradas con la etiqueta ecologia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ecologia. Mostrar todas las entradas

miércoles, 25 de mayo de 2011

Brasil: doble asesinato deja en evidencia lucha por el futuro de la Amazonia

Meses después de predecir su muerte, uno de los principales líderes ecologistas de la Amazonia brasileña fue asesinado junto a su esposa.

José Claudio Ribeiro da Silva y María do Espírito Santo da Silva fueron muertos a tiros este martes en la reserva ambiental donde vivían desde hacía más de dos décadas en el estado de Pará, ganándose la vida con la extracción artesanal de castañas.

La pareja era blanco de amenazas desde hacía años por sus denuncias contra madereros interesados en invadir la reserva para talar ilegalmente variedades de alto valor comercial como la caoba u otro tipo de árboles para la producción de carbón vegetal para la industria siderúrgica.
De acuerdo a la prensa local, a pesar de las denuncias, Da Silva y su esposa jamás consiguieron protección policial.

La presidenta Dilma Rouseff pidió a su ministro de Justicia, José Eduardo Cardozo, que ordenara a la Policía Federal una investigación del asesinato de la pareja.
El ataque en Pará deja en evidencia una vez más la acérrima lucha en torno a la Amazonia y tuvo lugar apenas horas antes de que la Cámara de Diputados aprobara una polémica reforma legal que según sus críticos acelerará la devastación de la selva amazónica.

"Una bala en la frente"

"Hoy estoy hablando ante ustedes, pero en un mes podrían recibir noticias de mi desaparición", había afirmado Ribeiro da Silva en un foro internacional en la ciudad de Manaus en noviembre.
"Defenderé el bosque cueste lo que cueste. Y por eso puedo recibir una bala en la frente en cualquier momento, por mis denuncias contra los madereros. La gente me pregunta si tengo miedo. Sí, soy un ser humano, pero mi miedo no me silencia. Mientras tenga fuerzas para caminar denunciaré a los que destruyen el bosque", agregó el ecologista.
"Defenderé el bosque cueste lo que cueste. Y por eso puedo recibir una bala en la frente en cualquier momento, por mis denuncias contra los madereros"

José Claudio Ribeiro da Silva
Ribeira da Silva y su esposa vivían en el Proyecto Agroextractivista (Paex) Praialta Piranheira, una reserva de más de 20.000 hectáreas en la que residen cerca de 500 familias, situada en la localidad de Nova Ipuxina, en el norte de Pará. En las reservas Paex está permitida la explotación sustentable de nueces, frutos y caucho, pero no la tala de árboles.

Ribeiro da Silva y su esposa eran dirigentes del Consejo Nacional de Poblaciones Extractivistas de Pará, una organización no gubernamental fundada por Francisco "Chico" Mendes, el recolector de caucho y líder ecologista asesinado por ganaderos en 1988.

Pará es uno de los puntos más álgidos de disputas por la tierra y Ribeiro da Silva había advertido el año pasado que corría el riesgo de seguir la suerte de Mendes y de Dorothy Stang, la misionera estadounidense asesinada en Pará en 2005 por defender a campesinos sin tierra.

El estado de Pará tiene yacimientos de hierro utilizado en la producción de acero. "El problema hoy en día no es tanto la tala ilegal de maderas nobles que prácticamente se han acabado, sino la tala del bosque que queda, degradado, para la producción de carbón vegetal para la industria siderúrgica", dijo a BBC Mundo Roberto Smeraldi, fundador de la ONG "Amigos de la Tierra - Amazonia".

Ley de la discordia

La muerte de Ribeiro da Silva y su esposa ocurre en un momento clave del debate político en torno al futuro de la Amazonia.
Este martes la Cámara de Diputados de Brasil aprobó un polémico proyecto de ley para disminuir las áreas protegidas de bosque y extender las tierras cultivables.
El llamado Código Forestal, impulsado por la industria agropecuaria, y rechazado rotundamente por ecologistas, propone cambios a la normativa actual, según la cual los establecimientos en la Amazonia deben mantener un 80% de cobertura forestal (La exigencia en otras partes del país es de 20%).
La iniciativa contempla que los pequeños agricultores estén exentos de la regla del 80%. Los detractores de la reforma aseguran que los grandes establecimientos podrían aprovecharse de esta norma para violar las prohibiciones de tala, simplemente dividiendo en el papel sus terrenos, colocando parte de los mismos, por ejemplo, a nombre de parientes.

El proyecto propone además reducir la franja de tierra que debe mantenerse intacta en la ribera de ríos y cursos de agua de 30 metros a 15 metros. También concede una amnistía para los productores que talaron ilegalmente bosque en sus tierras antes de 2008.

Deforestación

"Las ONGs son una mafia internacional que impide el desarrollo empresarial en Brasil", dijo a la BBC Katia Abreu, de la Confederación Nacional de Agricultura, que defiende la reforma.

El proyecto, que pasó ahora al Senado, llevó a que los diez ministros de Medio Ambiente que ha tenido el país desde 1973 enviaran una carta a la presidenta Dilma Rousseff instándole a impedir lo que llaman un "desastre ambiental anunciado".
Deforestación

La deforestación en la Amazonia brasileña se multiplicó por seis según datos divulgados en mayo.
Los opositores del proyecto dicen que entienden la necesidad de aumentar la producción de alimentos en Brasil, pero aseguran que esto puede lograse sin destruir el bosque.

Los establecimientos ganaderos en la Amazonia tienen una productividad promedio de una cabeza por hectárea. "Invirtiendo en mejores variedades de pasturas y fertilizantes yo he logrado aumentar la productividad a 2,5 cabezas por hectárea, sin talar bosque", dijo a la BBC el productor local Percio Barros de Lima.

La deforestación de la selva amazónica de Brasil se multiplicó por seis desde el año pasado, según imágenes satelitales difundidas por el gobierno brasileño la semana pasada.
Las fotografías muestran que entre marzo y abril del 2011 se destruyeron 593 kilómetros cuadrados de bosque, frente a los 103 talados en los mismos meses del año anterior.
El gobierno respondió a estos índices alarmantes de deforestación estableciendo un grupo de emergencia para investigar las causas. Algunos analistas señalan que la tala ilegal está vinculada al debate en el Parlamento y fue llevada a cabo por agricultores que buscan beneficiarse de la aministía prevista en el proyecto de ley.

Fuente:
http://www.bbc.co.uk/mundo/

martes, 29 de marzo de 2011

Las normas japonesas para las plantas nucleares dependían de la vieja ciencia


De acuerdo a este artículo, el gobierno japonés y las agencias encargadas se basaron en antiguos informes desestimando investigaciones más recientes al momento de crear las condiciones de seguridad para las plantas nucleares.
Las consecuencias del tsunami en Japón se prolongarán por largo tiempo.

Por Norimitsu Onishi y James Glanz
Traducción de Claudio Pairoba
26/03/2011

TOKIO – En el país que le dio al mundo la palabra tsunami, el establishment nuclear japonés en su mayoría no tuvo en cuenta la fuerza destructiva potencial de las paredes de agua. La palabra ni siquiera aparece en las pautas del gobierno hasta el 2006, décadas después de que las plantas – incluyendo las instalaciones de Fukushima Daiichi con las que los bomberos todavía están luchando para poder controlar – comenzaran a poblar las costas japonesas.

La falta de atención puede explicar como, en un país que es una isla rodeada por placas tectónicas en choque que generalmente producen tsunamis, las protecciones fueron tan trágicamente minúsculas comparadas con el tsunami de casi 14 metros que asoló la planta de Fukushima el 11 de Marzo. Los rompeolas mar adentro, diseñados para  proteger contra tifones pero no contra tsunamis, sucumbieron rápidamente como primera línea de defensa. La ola creció hasta llegar a ser casi 3 veces más alta que el risco sobre el cual la planta había sido construída.

El gobierno japonés y los directivos de las empresas públicas han dicho repetidas veces que los ingenieros nunca podrían haber anticipado un terremoto de magnitud 9.0 – el más grande en la historia japonesa – que hizo que el fondo del mar temblara originando el enorme tsunami. Pero aún así, los sismólogos y los expertos en tsunamis expresan que de acuerdo a información fácilmente accesible, un terremoto con una magnitud tan baja como 7.5 – sumamente común en el anillo del Pacífico – podría haber creado un tsunami lo suficientemente grande para sobrepasar el risco de Fukushima.

Después de que un grupo asesor emitiera recomendaciones no vinculantes en el 2002, la Compañía de Energía Eléctrica de Tokio, la dueña de la planta y la empresa más grande de Japón, elevó el máximo tsunami esperable en Fukushima Daiichi a alrededor de 5 metros – considerablemente superior que el risco de 3,90 metros. Sin embargo, la compañía pareció responder solo elevando el nivel de una bomba eléctrica cercana a la costa en 20 cm, presumiblemente para protegerla de los altos niveles de agua, de acuerdo a los inspectores.

“Sólo podemos trabajar sobre precedentes, y no había precedentes”, manifestó Tsuneo Futami, un ex Ingeniero Nuclear de Tokio quien fuera director de Fukushima Daiichi a finales de los 90. “Cuando dirigí la planta, la idea de un tsunami nunca se me cruzó por la cabeza.”
La intensidad con la cual el terremoto sacudió la tierra en Fukushima también superó los criterios usados en el diseño de la planta, aunque por un factor significativamente menor que el tsunami, de acuerdo a información suministrada por Tokyo Electric al Foro Industrial de Energía Atómica de Japón, un grupo profesional. Basado en lo que se sabe ahora, el tsunami comenzó la crisis nuclear inundando los generadores de refuerzo necesarios para hacer funcionar el sistema de enfriamiento del reactor.

Japón es conocido por su gran experiencia técnica. A pesar de esto y por décadas los altos estamentos japoneses e incluso partes de su establishment de ingenieros se aferraron a antiguos preceptos científicos para proteger plantas nucleares, apoyándose mayormente en registros de terremotos y tsunamis, sin tener en cuenta los avances en sismología y evaluación de riesgos existentes desde la década del 70.
Para algunos expertos, la subvaloración de la amenaza del tsunami en Fukushima es frustrante y nos recuerda al terremoto – esta vez sin tsunami – en Julio del 2007 que golpeó Kashiwazaki, una planta eléctrica perteneciente a Tokyo Electric en la costa oeste de Japón. La tierra en Kashiwazaki se sacudió dos veces y media más que la máxima intensidad estimada cuando se diseño la planta, haciendo necesarias mejoras en la misma.

“Tuvieron años para prepararse hasta ese momento, después de Kashiwazaki, y estoy viendo la misma cosa en Fukushima,” dijo Peter Yanev, un experto en evaluación de riesgo sísmico con sede en California, quien ha estudiado a Fukushima para la Comisión Regulatoria Nuclear de los EE.UU. y para el Departamento de Energía.

No hay dudas de que cuando se diseñó Fukushima la sismología y su intersección con la Ingeniería Estructural de las plantas nucleares estaba en sus comienzos, dijo Hiroyuki Aoyama de 78 años, un experto en la resistencia de plantas nucleares a los terremotos quien ha servido en grupos de asesoría para el gobierno japonés. Los ingenieros aplicaron muchas conjeturas, adoptando como estándar que las estructuras dentro de las plantas nucleares deberían tener 3 veces la resistencia a terremotos que tienen los edificios comunes.
“No había sustento para elegir 3 veces”, expresó Aoyama, un profesor emérito de Ingeniería Estructural de la Universidad de Tokio. “El objetivo era vago”.

Evolución de los diseños
Cuando los Ingenieros japoneses comenzaron a diseñar su primera planta nuclear más de 4 décadas atrás, buscaron indicios en el pasado sobre cómo proteger su inversión en la energía del futuro. Los archivos oficiales, algunos de ellos centenarios, contenían información sobre la manera en que los tsunamis habían inundado pueblos costeros, permitiéndoles a los ingenieros estimar su altura.
De manera que se construyeron las paredes más elevadas que los más altos tsunamis registrados. En Fukushima Daiichi, la cuarta planta más antigua del Japón, los directivos de la Tokyo Electric usaron un tsunami contemporáneo – una ola de 3,15 metros de altura causada por un terremoto de magnitud 9.5 ocurrido en Chile en 1960 – como punto de referencia. El risco de 3,90 metros sobre el cual se construyó la planta, iba a servir como una pared de contención natural, de acuerdo a Masaru Kobayashi, un experto en resistencia a terremotos de la Agencia de Seguridad Industrial y Nuclear, el ente regulador japonés.
Los rompeolas de 5,40 metros fueron construídos como parte de la estrategia anti-tsunami de la compañía, dijo Jun Oshima, una vocera para la Tokyo Electric. Pero los inspectores manifestaron que los rompeolas – fundamentalmente destinada a proteger a los botes – ofrecían cierta resistencia contra los tifones, pero no los tsunamis, expresó Kobayashi.

A través de las décadas, el estar preparado ante los tsunamis nunca fue una prioridad para las compañías de energía japonesas o para los reguladores nucleares. Tal vez se confiaron, según los expertos, en el hecho de que ningún tsunami había golpeado a una planta nuclear hasta hace dos semanas atrás. Aunque los simulacros de tsunami ofrecieron nuevas formas de determinar los riesgos de los mismos, los operadores de las plantas hicieron pocos cambios en sus vetustas construcciones, y los reguladores nucleares no los presionaron.

Los ingenieros adoptaron un enfoque similar con el tema los terremotos. Cuando llegó el momento de diseñar la planta de Fukushima, los informes oficiales que datan del 1600 mostraron que los terremotos más fuertes mar adentro de lo que hoy sería la Prefectura de Fukushima eran de magnitud 7.0 a 8.0, manifestó Kobayashi.

“Se lo dejamos a los expertos,”dijo Masatoshi Toyoda, un vicepresidente retirado de la Tokyo Electric quien supervisó la construcción de la planta. Agregó que “buscaron información en viejos documentos acerca de cuántas lápidas se habían caído y cuestiones similares.”
 Con el tiempo, los expertos de los comités gubernamentales comenzaron a presionar para tener normas de construcción más estrictas, y para 1981, las normas incluían referencias a los terremotos pero no a los tsunamis, de acuerdo a la Agencia de Seguridad Industrial y Nuclear. Esa presión creció de manera exponencial luego del devastado terremoto de Kobe en 1995, expresó Kenji Sumita, quien ocupó un alto cargo en la Comisión de Seguridad Nuclear del gobierno japonés a fines de los 90.

Sumita manifestó que las compañías de energía, las cuales estaban enfocadas en completar la construcción de una docena de reactores, se resistieron a adoptar estándares más estrictos, y no enviaron representantes a las reuniones sobre ese tema en la Comisión de Seguridad Nuclear.
“Otros enviaron gente de forma inmediata”, dijo Sumita, refiriéndose al ámbito académico y a expertos de la industria de la construcción. “Pero las compañías de energía se movieron con lentitud y no vinieron.”
Mientras tanto, las ciencias de la sismología y la evaluación de riesgos avanzaron en todo el mundo. Aunque la Comisión Regulatoria Nuclear de los EE.UU. ha sido víctima de severas críticas por no llevar adelante la adopción de estas nuevas técnicas, la agencia usó muchas de ellas en nuevas revisiones hechas planta por planta, dijo Greg S. Hardy, un ingeniero estructural de Simpson Gumpertz y Heger quien se especializa en el diseño de plantas nucleares y riesgo sísmico.

Cualquiera sean las razones – culturales, históricas o simplemente financieras – los ingenieros japoneses que trabajaban en plantas nucleares continuaron prediciendo lo que ellos creyeron eran terremotos extremos basados en sus informes.
Aquellos métodos, sin embargo, no tuvieron en cuenta serias incertidumbres como fallas que no habían sido descubiertas o terremotos que eran gigantescos aunque raros, dijo Hardy, quien visitó Kashiwazaki después del movimiento del 2007 como parte de un estudio patrocinado por el Instituto de Investigación en Energía Eléctrica.
“Los japoneses se quedaron atrás,” dijo Hardy. “Una vez que ellos proclamaron que este era el terremoto máximo, tuvieron dificultades reevaluando eso a medida que ingresaban nuevos datos.”
Esta aproximación japonesa, a la cual se la conoce en el ambiente como “determinista”- en oposición a “probabilística”, o que considera lo desconocido – de alguna manera pegó, dijo Noboru Nakao, un consultor quien se desempeño como ingeniero nuclear en Hitachi por 40 años y fue presidente del centro de entrenamiento japonés para operadores de reactores a vapor.

“Las reglas de seguridad japonesas son generalmente deterministas ya que los métodos probabilísticos son muy difíciles,” expresó Nakaom agregando que “los EE.UU. tienen mucho más métodos de evaluación de riesgos.”
La ciencia de los tsunamis también avanzó, con métodos mucho mejores para medir sus tamaños, estadísticas vastamente expandidas a medida que hubo más ocurrencias y cálculos de computadoras que ayudan a predecir qué clases de tsunamis son producidos por terremotos de distintos tamaños. Dos borradores de trabajos de investigación independientes desarrollados por expertos en tsunamis – Eric Geist de la Inspección Geológica de los EE.UU. y Costas Synolakis, profesor de Ingeniería Civil de la Universidad del Sur de California – indican que los terremotos de magnitud 7.5 pueden crear tsunamis suficientemente grandes para pasar por encima del risco de 3,90 metros que protege a la planta de Fukushima.
Synolakis consideró a la subestimación del riesgo de tsunami por parte de Japón “una cascada de errores estúpidos que condujeron al desastre” y agregó que la información relevante era prácticamente imposible de soslayar por cualquiera que trabaje en el tema.

Subestimando los riesgos
La primera referencia clara a los tsunamis apareció en los nuevos estándares para las plantas nucleares de Japón emitidos en 2006.
“Las normas del 2006 se referían a los tsunamis como un fenómeno que acompañaba a los terremotos, y urgía a las compañías de energía a que pensaran en eso,” manifestó Aoyama, el ingeniero estructural experto.
El riesgo había recibido algo de atención en 2002, cuando un grupo consejero del gobierno, la Sociedad Japonesa de Ingenieros Civiles, publicó normas recomendadas para tsunamis en referencia a los operadores nucleares.

Un grupo de estudio de la sociedad, incluyendo a profesores y representantes de empresas como Tokyo Electric, evaluaron información de tsunamis anteriores así como nuevas investigaciones acerca de líneas de falla y geografía local con el objetivo de elaborar las normativas, de acuerdo a un miembro del grupo de estudio quien habló bajo la condición de anonimato, citando lo delicado de la situación.
El mismo grupo había estado discutiendo recientemente las revisiones a esos estándares, de acuerdo a este miembro. Durante la última reunión del grupo, llevada a cabo una semana antes del último tsunami, los investigadores debatieron acerca de la utilidad de las simulaciones tridimensionales para predecir el potencial daño que los tsunamis podrían causar en plantas nucleares, de acuerdo a las minutas de esas reuniones. “Tomamos en cuenta más que solo datos del pasado,” indicó el miembro. “Tratamos de predecir. Nuestro objetivo fue reducir la incertidumbre.”

Quizás la observación más triste proveniente de los científicos fuera del Japón es que, incluso a través de la estrecha lente de los tsunamis pasados, la posibilidad de que las medidas de seguridad anti tsunami fueran superadas tendría que haber sido detectada. En 1993 un movimiento de magnitud 7.8 produjo tsunamis con alturas superiores a los 9 metros mar adentro de la costa occidental del Japón, con resultados ampliamente devastadores, de acuerdo con estudios científicos e informes de ese momento.
En la isla de Okushiri, una de las más afectadas, “la mayoría de las áreas pobladas que fueron severamente golpeadas por el tsunami estaban rodeadas por paredes contra los mismos” de hasta 4 metros y medio de alto, de acuerdo a un informe escrito por Yanev. Estas paredes eran entre 30 y 60 cm más altas que el risco de Fukushima.
Pero como en un presagio de lo que ocurriría 18 años más tarde, las paredes de Okushiri, Yanev, el experto en evaluación de riesgo sísmico, escribió, “pueden haber moderado los efectos generales del tsunami pero fueron ineficientes para las olas más grandes.”

Incluso el pasado distante estaba dando nueva información que podría haber servido como advertencia renovada.
Dos décadas después de que Fukushima Daiichi comenzara a funcionar, los investigadores que estudiaron minuciosamente antiguos reportes estimaron que un terremoto conocido como Jogan había producido un tsunami que penetró cerca de un kilómetro y medio en una isla de un área al norte de la planta. Ese tsunami se produjo en el 869.

Norimitsu Onishi informó desde Tokio y James Glanz desde Nueva York. Ken Belson e Hiroko Tabuchi contribuyeron informando desde Tokio.

Fuente:
www.nytimes.com

jueves, 17 de marzo de 2011

Actividades en la Semana “Día Mundial del Agua”


Se han organizado distintas propuestas de concientización desde el Sábado 19 hasta el Martes 22 de Marzo.
El Dr. Faccendini presentará su libro el Martes 22 de Marzo a las 18 hs.

Por Claudio Pairoba

El Martes 22 de Marzo se celebra el Día Mundial del Agua y con tal motivo la Cátedra Libre del Agua, dirigida por el Dr. Anibal Faccendini, ha organizado una serie de actividades (Ver volante adjunto con descripción).

La Semada Día Mundial del Agua se inició con una presentación en Rectorado describiendo los eventos organizados, la cual contó con la presencia del Sr. Rector Prof. Darío Maiorana, el Secretario General Dr. Darío Masia, el Secretario de Cultura y Educación de la Municipalidad de Rosario, Horacio Ríos y el Dr. Faccendini.

El Sábado 19 de Marzo a las 11 hs, y con la participación de varios clubes, se realizará una respetuosa ofrenda al agua y al Río Paraná. Por la tarde, se presentarán Jorge Fandermole y otros dos grupos musicales. El Lunes 21 se podrá disfrutar de una muestra pictórica titulada “Agua Bien Común” y el Martes 22 se darán por terminados los eventos con la presentación del libro “Agua y Saneamiento: Derecho Humano Esencial. El bien común. La privatización del agua en Santa Fe 1995-2005. Diez años de apropiación indebida. La vulneración de un derecho.”

El Prof Maiorana destacó la prioridad de dar visibilidad a la temática del agua para que la misma sea abordada no sólo desde una instancia académica sino desde la concientización y la propuesta.

Por su parte, el Secretario de Cultura y Educación de la Municipalidad de Rosario, Horacio Ríos, expresó que se buscó apoyar estas jornadas de concientización organizando un espectáculo de más volumen, en el cual se destaca Jorge Fandermole. En sus palabras, el consumo de cultura permite acercar a otros públicos a esta problemática.

Finalmente el Secretario General, Dr. Masia, enfatizó la importancia de concientizar y remarcó la constancia del Dr. Faccendini al ocuparse de esta problemática. Asimismo consideró que las implicancias del tema del agua es una de las situaciones que nuestra Universidad tiene que abordar.

El Dr. Faccendini viene ocupándose del tema desde hace unos 20 años, cuando encaró la temática del agua desde una perspectiva social relacionada con la necesidad de cloacas en distintas zonas de nuestra ciudad. Desde hace un tiempo también se ocupa de los aspectos ambientales relacionados. Con respecto a su libro, destacó que el mismo tiene un abordaje sociológico y jurídico, aspectos que lo movilizaron para comprometerse con esta causa.

martes, 15 de marzo de 2011

Miradas alternativas sobre combustibles alternativos (Tercera parte): Las respuestas de Sergio Montico

Última entrega de la serie sobre Biocombustibles.
Las nuevas miradas permiten analizar los Biocombustibles en mayor profundidad .

Por Claudio Pairoba

Al principio había una euforia y apoyo general respecto del tema de los Biocombustibles. ¿Cómo ve esta cuestión en la actualidad? ¿Hubo algún hecho en particular que determinó la aparición de voces críticas en este tema? 

En realidad las voces críticas estuvieron desde que se comenzó a avizorar este tema. Su instalación en la Agenda Internacional data de más de una década, claro que con mayor énfasis en los últimos años. Cuando se tuvieron más datos y también confiables sobre la expansión de este nuevo mercado a la luz del cambio transicional de la matriz energética mundial, surgieron diversas opiniones que definieron dos posturas contrapuestas, algunas pocas más conciliadoras. La controversia radica principalmente en el destino de la producción de granos y oleaginosas, sí a su transformación en biocarburantes de primera generación (B1G) o a sostener la oferta alimentaria. Pero no sólo eso se objeta, sino también aquello relacionado con cuestiones geoestratégicas. Se argumenta que como los países desarrollados son incapaces de autoabastecerse de B1G porque ello los obliga a destinar superficies para la producción granaría que no disponen, para satisfacer sus necesidades de corte de los combustibles fósiles, acuden al estímulo de los países en vías de desarrollo para que sean estos los que cumplan ese rol. De esta manera los asocian indirectamente a sus políticas energéticas. Claro que cuando esta demanda no tiene la contención debida se producen y producirán externalidades perniciosas. Entonces para los que ven en ello una oportunidad de un mercado promisorio, en auge y cada vez más robusto, otros temen por las presiones que sufrirán tanto los recursos naturales como las comunidades más vulnerables, principalmente de los países del Sur. La cuestión está instalada y muy lejos de conciliarse las posturas antagónicas. 

viernes, 25 de febrero de 2011

Miradas alternativas sobre combustibles alternativos (Segunda parte): El enfoque de investigadores de la UNR

Los aspectos actuales y las perspectivas futuras de la producción de Biocombustibles son analizados por el Dr. Ing. Sergio Montico y su grupo de investigación de la Facultad de Cs. Agrarias de la Universidad Nacional de Rosario, Argentina.

El enorme potencial de los biocombustibles requiere de un análisis crítico.
Por Claudio Pairoba

El Dr. Ing. Sergio Montico es titular de la Cátedra de Manejo de Tierras de la Facultad de Ciencias Agrarias de la Universidad Nacional de Rosario (UNR). Montico y su grupo vienen trabajando en el tema de la gestión energética en el sector rural desde el año 2004. Durante la Jornada “Aportes para el análisis de la sustentabilidad de los Biocombustibles” que se llevó a cabo el 3 de Noviembre de 2010 en la UNR, Montico manifestó que "resulta sumamente importante analizar la eficiencia energética de los sistemas productivos agropecuarios representativos de la región en diversos escenarios ambientales. La transformación de la producción primaria en biocombustibles, integrados en una cadena agroenergética, es una cuestión controversial" (1).

miércoles, 23 de febrero de 2011

Miradas alternativas sobre combustibles alternativos (Primera parte)

Una doble entrega recorriendo el mundo de los biocombustibles desde sus inicios hasta la situación actual analizada por un grupo de investigadores rosarinos liderados por el Dr. Sergio Montico de la Facultad de Ciencias Agrarias de la Universidad Nacional de Rosario.
 
 
Por Claudio Pairoba

La necesidad de encontrar fuentes de energía menos contaminantes que las actualmente existentes, sumado al incremento en los precios de combustibles fósiles más las cuestiones geopolíticas que afectan la disponibilidad y los precios de estos últimos constituyen señales de alerta que obligan a buscar combustibles alternativos. Es por ello que en los últimos años se ha generado una gran expectativa con respecto al tema de los biocombustibles.

miércoles, 5 de enero de 2011

Fabricados para no durar

Por Susana Rodríguez



Baterías que se 'mueren' a los 18 meses de ser estrenadas, impresoras que se bloquean al llegar a un número determinado de impresiones, bombillas que se funden a las mil horas... ¿Por qué, pese a los avances tecnológicos, los productos de consumo duran cada vez menos?

La 2 de Televisión Española emite este domingo en prime time "Comprar, tirar, comprar" un documental que nos revela el secreto: obsolescencia programada, el motor de la economía moderna.

Rodado en Catalunya, Francia, Alemania, Estados Unidos y Ghana, Comprar, tirar, comprar, hace un recorrido por la historia de una práctica empresarial que consiste en la reducción deliberada de la vida de un producto para incrementar su consumo porque, como ya publicaba en 1928 una influyente revista de publicidad norteamericana, "un artículo que no se desgasta es una tragedia para los negocios".

El documental, dirigido por Cosima Dannoritzer y coproducido por Televisión Española, es el resultado de tres años de investigación, hace uso de imágenes de archivo poco conocidas; aporta pruebas documentales y muestra las desastrosas consecuencias medioambientales que se derivan de esta práctica. También presenta diversos ejemplos del espíritu de resistencia que está creciendo entre los consumidores y recoge el análisis y la opinión de economistas, diseñadores e intelectuales que proponen vías alternativas para salvar economía y medio ambiente.

Una bombilla en el origen de la obsolescencia programada
Edison puso a la venta su primera bombilla en 1881. Duraba 1500 horas. En 1911 un anuncio en prensa española destacaba las bondades de una marca de bombillas con una duración certificada de 2500 horas. Pero, tal y como se revela en el documental, en 1924 un cártel que agrupaba a los principales fabricantes de Europa y Estados Unidos pactó limitar la vida útil de las bombillas eléctricas a 1000 horas. Este cártel se llamó Phoebus y oficialmente nunca existió pero en Comprar, tirar, comprar se nos muestra el documento que supone el punto de partida de la obsolescencia programada, que se aplica hoy a productos electrónicos de última generación como impresoras o iPods y que se aplicó también en la industria textil con la consiguiente desaparición de las medias a prueba de carreras.

Consumidores rebeldes en la era de Internet
A través de la historia de la caducidad programada, el documental pinta también un fresco de la historia de la Economía de los últimos cien años y aporta un dato interesante: el cambio de actitud en los consumidores gracias al uso de las redes sociales e Internet. El caso de los hermanos Neistat, el del programador informático Vitaly Kiselev o el catalán Marcos López, dan buena cuenta de ello.

África, vertedero electrónico del primer mundo
Este usar y tirar constante tiene graves consecuencias ambientales. Tal y como vemos en este trabajo de investigación, países como Ghana se están convirtiendo en el basurero electrónico del primer mundo. Hasta allí llegan periódicamente cientos de contenedores cargados de residuos bajo la etiqueta de 'material de segunda mano' y el paraguas de una aportación para reducir la brecha digital y acaban ocupando el espacio de los ríos o los campos de juego de los niños.

Más allá de la denuncia, el documental trata de dar visibilidad a emprendedores que ponen en práctica nuevos modelos de negocio y escucha las alternativas propuestas por intelectuales como Serge Latouche, que habla de emprender la revolución del 'decrecimiento', la de la reducción del consumo y la producción para liberar tiempo y desarrollar otras forma de riqueza, como la amistad o el conocimiento, que no se agotan al usarlas.

Fuente:http://www.rtve.es/noticias/20110104/productos-consumo-duran-cada-vez-menos/392498.shtml

lunes, 15 de noviembre de 2010

Activistas sorprendidos por la liberación de mosquitos genéticamente modificados

La que sería la primera liberación no informada de mosquitos genéticamente modificados en un intento por controlar el dengue en las Islas Caimán enciende luces de alerta en organizaciones internacionales.


Por Katherine Nightingale
Traducción: Claudio Pairoba
11/11/10



Expertos en la seguridad de organismos genéticamente modificados han expresado preocupación por la liberación en la naturaleza de mosquitos genéticamente modificados ocurrida en las Islas Caimán, la cual alcanzó publicidad internacional recién el mes pasado - un año después de ocurrida.

La prueba con la cepa OX513A del mosquito Aedes aegypti portador de dengue, desarrollada por la compañía de biotecnología Oxitec del Reino Unido, fue llevada a cabo en la isla Gran Caimán por la Unidad de Control e Investigación de las Islas Caimán (MRCU por sus siglas en inglés) en el 2009, seguido por una liberación de mayor importancia entre los meses de Mayo y Octubre de este año. Juntas representan la primera liberación conocida de mosquitos genéticamente modificados en el mundo.

Resultados no publicados de las pruebas, mostrando que los mosquitos machos genéticamente modificados compitieron con los machos no modificados, fueron presentados en la reunión anual de la Sociedad Norteamericana de Medicina Tropical e Higiene llevada a cabo en los EE.UU. el 4 de Noviembre pasado.

Los mosquitos machos genéticamente modificados se aparean con las hembras normales para producir larvas que mueren a menos que el antibiótico tetraciclina este presente. En ausencia de tetraciclina se produce acumulación de una enzima la cual alcanza niveles tóxicos, matando a las larvas. Los encargados de desarrollar esta estrategia esperan que la misma podría combinarse con otros métodos de control para reducir la transmisión en aquellas áreas endémicas.

Ricarda Steinbrecher, genetista y co-directora de EcoNexus - una organización de investigación sin fines de lucro del Reino Unido - manifestó sorpresa respecto de las pruebas, ya que las mismas no habían sido mencionadas en el quinto encuentro de los Integrantes del Protocolo de Cartagena en Bioseguridad - el cual se ocupa de los temas referentes a cuestiones de seguridad internacional relacionadas con organismos genéticamente modificados - que tuvo lugar en Nagoya, Japón, el mes pasado.

Steinbrecher se refirió a la falta de publicidad que rodeó a las pruebas como "preocupante, tanto desde el punto de vista científico como de la participación pública".

Agregó que hasta que se realice una evaluación completa a largo plazo de las pruebas en las Islas Caimán, las pruebas de las mismas cepas que tendrán lugar en Malasia y que fueron anunciadas recientemente no deberían llevarse a cabo.



Algo más de 3 millones de mosquitos machos fueron liberados en las Islas Caimán este año. Oxitec envió huevos genéticamente modificados a las islas, un territorio británico de ultramar, los cuales fueron incubados en el MRCU.

Angela Harris, investigadora principal en el MRCU, expresó a SciDev.Net que su unidad consultó a varias oficinas gubernamentales de las Islas Caimán de antemano.

"En la actualidad existe el borrador de un proyecto de ley, y a pesar del hecho de que dicho proyecto no ha sido implementado llevamos adelante un análisis de riesgo así como un revisión del ensayo como si este proyecto ya fuera efectivo".

Agregó que hubo un artículo publicado en un diario y una consulta pública dentro de las Islas Caimán.

Luke Alphey, Director de Investigación de Oxitec, manifestó que se llevó adelante un extenso análisis de riesgo y que "hicieron gran cantidad de trabajos participativos en Caimán, pero ningún esfuerzo especial para hacer correr la voz a nivel internacional o para no hacerlo". Hoy, en una conferencia de prensa en Londres dijo que no había querido dar a publicidad las pruebas hasta que se conocieran los resultados. Agregó que no sabía lo que es el encuentro de Nagoya. En estos momentos se está desarrollando una evaluación ambiental del sitio de prueba.

Alphey manifestó que el experimento cumplió con el Protocolo de Cartagena ya que se obtuvo el consentimiento del gobierno de la isla con anterioridad.

John Marshall, del Imperial College de Londres, quien ha expresado que el Protocolo de Cartagena necesita ser revisado para poder tratar las necesidades especiales de los insectos genéticamente modificados, dijo: "Dado que los mosquitos no se van a extender a otros países, es una cuestión nacional. Creo que Oxitec ha hecho todo lo que necesitaba hacer."



Se cree que la población de mosquitos normales en un área urbana de 16 hectáreas se ha reducido en un 80 %. El próximo paso para Oxitec, según Alphey es testear la estrategia junto con otros métodos para el control del mosquito.

Kathy Jo Wetter, una investigadora del Grupo de Acción en Erosión, Tecnología y Cooperación, una organización con sede en Canadá que promueve el desarrollo socialmente responsable de tecnologías, dijo que su grupo no estaba al tanto de la liberación.

"Oxitec considera que su prueba es "exitosa" unos pocos dias después de que el experimento finalizó", manifestó. "Pero todavía no puede saberse sobre el impacto inesperado en el medio ambiente, y la tecnología no probada de Oxitec podría hacer que las cosas se pongan peor a largo plazo. No hay posibilidad de marcha atrás si algo sale mal - ¿quién se hace responsable en ese caso?"
"Los tecno-arreglos extremos requieren de precaución extrema," concluyó.

Alphey manifestó que están esperando la aprobación para la liberación de mosquitos genéticamente modificados en Brasil, Panamá y los Estados Unidos.

Fuente:
http://www.scidev.org/

sábado, 13 de noviembre de 2010

Despejar bosques para cultivar, más dañino en los trópicos

Por Laura Plitt



Cuando se despeja una zona boscosa para hacer lugar a la agricultura se libera, inevitablemente, una cierta cantidad de dióxido de carbono en la atmósfera, uno de los gases con efecto invernadero que contribuye en mayor medida al calentamiento global.

Sin embargo, este problema es mucho más marcado en los trópicos que en las zonas templadas, según un estudio llevado a cabo por investigadores de la Universidad de Wisconsin-Madison, en Estados Unidos.

"Es importante invertir más recursos en aumentar la producción en las tierras agrícolas ya existentes que en expandir la producción hacia nuevas tierras"
Paul West, principal autor del estudio

"En comparación con las regiones templadas, los trópicos liberan cerca del doble de carbono por cada unidad de tierra despejada", le explicó a BBC Mundo Paul West, principal autor del estudio.

Además, señalan los investigadores, los cultivos en esta región del planeta rinden menos de la mitad, cuando se compara su rendimiento con el de los cultivos de zonas templadas.

Por esta razón, para cumplir con la creciente demanda de alimentos perjudicando lo menos posible el medio ambiente, es importante "invertir más recursos en aumentar la producción en las tierras agrícolas ya existentes que en expandir la producción hacia nuevas tierras", aseguró West.

Para llegar a eta conclusión, los investigadores analizaron cómo sería el rendimiento de 175 tipos de cultivo -desde el trigo, el maíz y el arroz hasta frutos exóticos como el quinoto- se plantasen en diferentes partes del mundo y luego estimaron cuánto CO2 se liberaría en la atmósfera, si tuviesen que limpiar esos terrenos para hacerles lugar.

Manejo de tierras
Una de las razones -casi obvia- que explica por qué este fenómeno es más agudo en el trópico, es que muchos de los bosques tropicales están cubiertos por una densa masa de vegetación, que almacena una cantidad enorme de carbono.

Pero en términos de la cosecha, el rendimiento más bajo se debe a las prácticas agrícolas que se emplean en la zona, más que a las características del suelo o a las condiciones ambientales.

Actualmente, el 20% de la tierra en las regiones templadas está dedicada a la agricultura, mientras que en los trópicos este porcentaje es del 11%.

Sin embargo, es en los trópicos donde la expansión de tierras cultivables se está extendiendo más rápidamente. Según los investigadores, el 80% de los nuevos campos eran anteriormente bosques.

De ahí la importancia de maximizar el uso de las tierras cultivadas, "ya sea introduciendo distintos cultivos, variedad dentro de las cosechas, utilizando de manera más eficiente el agua o los fertilizantes y, posiblemente, rotando los cultivos dentro de los campos", dice West.

Preocupación menor
Los autores del estudio reconocen que, en la mayoría de los casos, la elección de ampliar los campos de cultivo está motivada por factores económicos, tecnológicos, de identidad nacional, y para garantizar la seguridad alimentaria.

"La cantidad de gases que se liberan en el aire es sólo una pequeña parte de la ecuación para la mayoría de la gente"
Paul West, principal autor del estudio

"La cantidad de gases que se liberan en el aire es sólo una pequeña parte de la ecuación para la mayoría de la gente", comenta West.

Pero para aumentar el rendimiento sin dañar la capacidad de los ecosistemas de brindar beneficios ambientales como el suministro de agua, entre otros, la mejor alternativa es aumentar el rendimiento dentro de la tierras cultivadas, concluye el estudio.

Y, aclaran, esta regla no sólo es válida para los trópicos, donde el la diferencia entrer CO2 liberado y rendimiento por hectárea es más marcada, sino que tiene validez para todos los suelos del mundo en donde se cultiva.

Fuente:
http://www.bbc.co.uk/mundo/noticias/2010/11/101111_agricultura_tropicos.shtml

miércoles, 18 de agosto de 2010

Científico vive como los Inuit por un año para salvar un lenguaje en desaparición

Por Thair Shaikh, CNN.
Traducción de Claudio Pairoba.
13 de Agosto de 2010.



• Stephen Pax Leonard vivirá con los Inughuit en el noroeste de Groenlandia.
• Quiere documentar su lenguaje y tradiciones.
• Leonard dice que quedan unos 1000 personas que hablan el Inuktun.
• La temperatura promedio allí es -25° C.

Londres, Inglaterra (CNN) – Un antropólogo británico está preparando una visita de un año de duración a una comunidad en Groenlandia como parte de un ambicioso intento por documentar su agonizante idioma y tradiciones.

Stephen Pax Leonard vivirá con los Inughuit en el noroeste de Groenlandia, habitantes del lugar más septentrional del mundo, y grabará sus conversaciones y tradiciones orales para tratar de preservar su lenguaje.

Los Inughuit, quienes hablan Inuktun, un dialecto Inuit “puro”, están bajo una creciente presión tanto política como climática para desplazarse hacia el sur, dice Leonard.

“Les quedan cerca de 10 o 15 años en su ubicación actual, después el cambio climático y la política los van a obligar a moverse hacia el sur, y van a ser asimilados en una cultura diferente, en una comunidad más amplia, y su forma de vida va a perderse,” expresó Leonard.

Leonard, quien volará a Copenague el Domingo antes de dirigirse a Groenlandia, dice que hay cerca de 1000 personas que hablan Inuktun, un lenguaje del cual no existen registros.

Aunque la mayoría de los Inughuit son trilíngues, ya que también hablan danés y groenlandes, su lenguaje primario todavía es el Inuktun.

“Sin dudas este es un desafío lingüístico de grandes proporciones. Hablan una forma muy pura de Inuit, en parte debido a su aislamiento geográfico. La totalidad de su cultura es de tipo oral.”

Leonard, un antropólogo lingüístico de la Universidad de Cambridge, Inglaterra, no tiene dudas respecto de los obstáculos culturales y físicos que enfrenta. La temperatura promedio es -25° C, aunque pueden descender a -40° C en el invierno.

Los Inughuits, que es el nombre de los Inuits del norte, son cazadores y acopiadores; no tienen una economía basada en el dinero y los hombres pueden pasar semanas lejos de casa cazando morsas, focas y otros mamíferos. Todavía utilizan trineos tirados por perros en el invierno y kayaks en el verano.

Hivshu, un Inughuit que ahora vive en Suecia, ayudó a Leonard a establecer contactos con su antigua comunidad en Groenlandia.

Hivshu ha escrito acerca de la forma de vida de los Inughuit en su sitio: “Incluso antes de que fuera a la escuela empecé a ayudar a mi padre cuando salía a cazar, verano o invierno, no había diferencia. Ese fue el modo en que escuché las historias acerca de mis antepasados y sus canciones contadas y cantadas por los ancianos ya que era una tradición contar historias y cantar las canciones tradicionales de los Inuit para todos durante la cacería.”

Leonard dice estar decidido a convertirse en parte de esa comunidad y planea cazar con ellos si se lo permiten.

Para ello lleva grabadores de audio de estado sólido que debieran funcionar en condiciones de bajas temperaturas y planea producir una “etnografía del habla”.

La cual él espera que va a ser un documento permanente que muestre como su lenguaje y su cultura están interconectados.

Fuente:
http://edition.cnn.com/2010/WORLD/europe/08/13/greenland.inuit.language/index.html?hpt=Sbin#fbid=k6TJG0i8Vg0&wom=false

lunes, 7 de junio de 2010

Tony Blair formará parte de una innovadora firma de capitales de riesgo para tecnología verde

Por EconomyWatch
Traducción de Claudio Pairoba



Tony Blair se convertirá en consejero de alto rango en Khosla Ventures, la firma de capitales de riesgo fundada por Vinod Khosla, un inversor que propone el uso de tecnología verde.

Khosla Ventures, fundada por Khosla en 2004 después de dejar la firma de capitales de riesgo Kleiner Perkins Caufield y Byers, hizo el anuncio en una reunión de inversores.

La firma va a invertir U$S 1.100 millones en tecnología limpia así como en compañías de tecnología de la información.

Blair ofrecerá asesoramiento estratégico en políticas públicas a las empresas con cartera de inversiones verdes que posee la firma.

Entre las mismas se incluyen Calera, un fabricante que usa dióxido de carbono para crear productos de hormigón; Kior, la cual transforma biomasa tal como astillas de madera en biocombustibles; y Pax Streamline, la cual apunta a hacer los sistemas de aire acondicionado menos contaminantes para el medio ambiente.

“Cuanto más estudiaba todo el tema del cambio climático, conectándolo con temas de seguridad energética y desarrollo, me convencí cada vez más que las respuestas están en la tecnología”, expresó Blair en una entrevista.

Blair trabajó en el tema de políticas internacionales sobre cambio climático cuando fue primer ministro, y ahora encabeza el proyecto “Rompiendo el Estancamiento del Clima”, a través del cual apunta a moldear la política internacional sobre cambio climático.

Silicon Valley y Washington tienen una relación distante y a veces enfrentada.

Eso está bien cuando se trata de tecnología de la información, dijo Blair, ya que el gobierno no es su fuerza propulsora.

La tecnología verde es diferente, dado que los gobiernos están tratando de usarla para alcanzar objetivos de política ambiental.
“Progresos tecnológicos que sean económicamente viables – para los gobiernos, ese es el santo grial,” dijo.

Khosla dijo que la gente que trabajó en tecnología subestimó la importancia de trabajar con los creadores de políticas, y que Blair ayudaría a superar esa separación.

De la misma manera que lo han hecho Al Gore y Colin Powell, quienes son consejeros en Kleiner Perkins, Blair prestará su nombre a los proyectos, hacer presentaciones y repartir consejos, pero no estará involucrado en la actividad diaria de la firma.
Por ejemplo, dijo Blair, él podría potencialmente ayudar a cerrar un trato para que una de las compañías construya una planta piloto en un país determinado.

Khosla Ventures, con sede en Menlo Park, California, generalmente invierte entre U$S 5 y 15 millones en emprendimientos tecnológicos, y también invierte cantidades más pequeñas, cerca de U$S 2 millones, en lo que Khosla denomina “experimentos científicos”, o sea ideas para tecnología verde que son tan riesgosas y prematuras que probablemente fallarán, de acuerdo a un artículo del New York Times (1).

Su objetivo es ayudar a desarrollar tecnologías que no requieran subsidios del gobierno para sobrevivir y que sean económicamente viables en países como China y la India, manifestó Khosla.

“No estamos tratando de construir sobre lo conocido,” dijo Khosla. “Estamos tratando de hacer los sueños realidad.”

Khosla Ventures está incrementando sus inversiones en tecnología verde a medida que muchos capitalistas de riesgo han estado disminuyendo tales inversiones, en especial aquellas que requieren la construcción de industrias para producir energía alternativa.

Parece que la mediación Israel/Palestina no resultó tan buena para Blair.


1. Blair to join venture firm as adviser on technology.
Por Claire Can Miller. http://www.nytimes.com/2010/05/25/technology/25blair.html?emc=eta1

martes, 4 de mayo de 2010

BP construye campanas de 70 toneladas para contener el vertido submarino de crudo

Este remedio permitiría que el fluido contaminante deje de subir a la superficie sin control, pero no sería la solución definitiva.
EL PAÍS - Madrid - 03/05/2010


La fauna costera en la isla de Breton, en las costas de Luisiana, está bajo gran peligro. Las autoridades han desplegado bombas de contención frente a este refugio nacional de vida salvaje como parte de las medidas preventivas contra la marea negra- EFE


La petrolera BP está construyendo tres campanas de metal y cemento de 70 toneladas cada una para contener el vertido submarino en el golfo de México, desde el que el crudo sigue fluyendo de forma descontrolada. Los ingenieros de la empresa trabajan aceleradamente para colocar las cúpulas sobre los flujos de crudo, a fin de capturarlo y bombearlo a la superficie intentando causar el menor daño ambiental. El dispositivo podría estar colocado dentro de seis u ocho días, según la empresa.

Este remedio permitiría que el fluido contaminante deje de subir a la superficie sin control, pero no sería la solución definitiva. El plan diseñado consiste en sumergir una campana de hierro y cemento hasta el pozo subterráneo para contener los chorros que, según las fuentes más optimistas, escupen cada día a la superficie 5.000 barriles de crudo; mientras tanto se perforaría un nuevo pozo y se instalaría otro brazo hacia el que desviar hasta un barco el petróleo. Toda la operación sitúa en un plazo muy largo la resolución de un problema que podría convertirse en "un desastre medioambiental masivo", como admitió el presidente Obama, informa Yolanda Monge.

El mal tiempo no ayuda y hace muy difícil desplegar en un mar con mucho oleaje las barreras que contengan el crudo. La faraónica opción de implantar sobre las fugas una campana que tapone el flujo continuo que mana de tres filtraciones del oleoducto subterráneo es complicada tecnológicamente y llevará tiempo, desde una semana a tres meses.

El dispositivo de recogida permitiría capturar, según los técnicos, el 85% del crudo, aunque la campaña puede perder estabilidad a la profundidad a la que se encuentra el escape, a 1,5 kilómetros bajo la superficie marina. Este mecanismo de campana y bombeo del crudo fue uno de los que se barajó durante el desastre del Prestige, el petrolero que se partió y hundió cargado de fuel frente a las costas gallegas, en noviembre de 2002.

Si BP no consigue frenar la fuga, la catástrofe puede ser enorme. Al ritmo actual, en 50 días el vertido igualaría al del Exxon Valdez (unas 42.000 toneladas de crudo vertidas) y en cuatro meses la del Prestige (64.000 toneladas).

Fuente:
http://www.elpais.com/articulo/sociedad/BP/construye/campanas/toneladas/contener/vertido/submarino/crudo/elpepusoc/20100503elpepusoc_23/Tes?print=1

viernes, 9 de abril de 2010

Cuando lo verde se equivoca: ¿Puede el capitalismo salvar al planeta?



08/04/10
Por EconomyWatch.com

Heather Rogers nos advierte acerca de los peligros de creerse la idea de ser un “eco-consumidor” en “Cuando lo verde se equivoca: Cómo nuestra economía está debilitando la Revolución Ambiental”.

Rogers dice que el capitalismo verde está, en realidad, socavando el progreso ecológico.

Rogers se especializa en exponer este tipo de situaciones y también es la autora de “Mañana se habrá ido: la vida oculta de la basura”.

La autora opina que la Norteamérica de las corporaciones nos ha hecho creer que podemos salvar al planeta comprando cosas tales como lamparitas fluorescentes compactas, autos híbridos y reducciones de carbono*.

“La nueva onda verde, representada por la frase “medioambientalismo cómodo”, está dirigido a las masas que no están dispuestas a sacrificarse,” se queja Rogers, de acuerdo a una reseña aparecida en el New York Times (1).

“Este activismo de butaca se manifiesta en su plenitud en el terreno de los artículos de consumo; si compramos los productos correctos podemos guiar a nuestro sistema económico hacia la era medioambiental.”

“Cuando lo verde se equivoca”, que se editará a fines de este mes, no solo se ocupa de blancos fáciles como las grandes corporaciones, las cuales Rogers dice que están más interesadas en hacer dinero que en salvar el planeta.

Rogers también critica a las bandas de rock que se ajustan a la moda de lo verde tales como Coldplay, cuyos miembros vuelan por el mundo y piensan que pueden borrar sus huellas de carbono** si plantan árboles en los países en desarrollo. En el caso de Coldplay muchos de los árboles han muerto.

De hecho, Rogers es tan desdeñosa de todo el movimiento medioambientalista principal que muchos de sus puntos podrían ser usados por los enemigos de aquel, como Rush Limbaugh y Glenn Beck***, quienes siempre están a la búsqueda de munición.

Incluso si uno no está de acuerdo con todas las afirmaciones de Rogers – y yo no lo estoy (NT: se refiere al editor del artículo original en inglés) – las mismas no pueden ser fácilmente desechadas. “Cuando lo verde se equivoca” está bien escrito y su investigación es exhaustiva.

La autora fue a lugares como Uruguay, Borneo y la India para mostrar los problemas que, ella dice, el movimiento verde ha creado sin querer...

Hubiera sido mejor si Rogers se hubiera metido más profundamente en otra de sus sugerencias: en vez de comprar verde, simplemente necesitamos comprar menos.

Ella no parece dispuesta a enfatizar mucho esto porque es una idea verdaderamente radical que estalla en la cara del capitalismo – verde o no.

“En todo el mundo, muchos políticos, el sector energético convencional y los industriales de toda clase se oponen a una reducción importante en el consumo,” escribe Rogers.

“Si la gente empieza a usar menos, entonces las economías basadas en el consumo – tales como la de los EE.UU., donde comprar cosas y servicios representa un 70 % de toda la actividad económica – se vería forzada a sobrellevar una transformación colosal.

Notas aclaratorias:


*Las reducciones de carbono (carbon offsets en inglés) son un instrumento financiero tendiente a reducir las emisiones de gases que producen el efecto invernadero.

**La huella de carbono (carbon footprints en inglés) es una “medida del impacto que las actividades del ser humano tienen en el medio ambiente en términos de gases producidos que contribuyen al efecto invernadero , medidos en unidades de dióxido de carbono”.

***Comentaristas norteamericanos conocidos por sus ideas de derecha y su ácida verborragia.

(1) www.nytimes.com/2010/04/04/business/energy-environment/04shelf.html?emc=eta1


Fuente:
http://www.economywatch.com/in-the-news/Green-Gone-Wrong-can-capitalism-save-the-planet-Heather-Rogers-08-04.html

miércoles, 24 de marzo de 2010

Martillazo al tiburón

Nota de CP: No me queda en claro por qué se siguió adelante con la votación si el sistema no funcionaba. Parece que vamos saltando de cumbre inútil en cumbre inútil.

La cumbre de especies de la ONU rechaza aumentar la protección de los escualos
MANUEL ANSEDE - ENVIADO ESPECIAL - 24/03/2010 08:15



La cumbre de Doha sobre el comercio con especies amenazadas vivió ayer por la tarde un momento surrealista, pero significativo. La presidencia pidió a los delegados de los 137 países presentes en la capital de Qatar que apretaran el botón del sí para comprobar que el sistema de votación funcionaba. Siete votaron que no. Algunos países, ni por esas.

Los miembros de la Convención sobre el Comercio Internacional de Especies Amenazadas (CITES), bajo el paraguas de la ONU, volvieron ayer a apretar el botón del no y rechazaron aumentar la protección del tiburón oceánico y de tres especies de pez martillo, todas en caída libre por la brutal demanda de ingredientes para elaborar la sopa de aleta de escualo; y también tumbaron la propuesta de endurecer las condiciones para exportar mielga, el tiburón con el que se prepara el fish and chips británico. Sólo se aprobó, por un voto, un cierto blindaje para el marrajo sardinero, codiciado por su sabrosa carne, aunque el plenario de CITES podría revisar hoy esta protección.

Indignación ecologista
Las organizaciones de conservación presentes en Doha estallaron. El director de la campaña de tiburones del Pew Environment Group, Matt Rand, explicaba con rabia a Público: "Se han impuesto los intereses económicos, el rechazo está científicamente injustificado". Según sus datos, la venta de aletas se cobra 73 millones de tiburones al año. El kilo alcanza los 100 euros en las lonjas de Hong Kong.

Por teléfono desde Madrid, el secretario general de la Confederación Española de Pesca, Javier Garat, aplaudió las decisiones de Doha. "Nos parece estupendo que no entren especies marinas en CITES, porque para gestionarlas ya existen las organizaciones regionales de pesca", declaró. La flota española es responsable del 95% de las exportaciones de aleta de tiburón de la UE, aunque casi la totalidad procede, según Garat, de especies no amenazadas, como la tintorera y el marrajo. España se convirtió el 1 de enero en el primer país europeo que prohíbe la pesca de tiburones martillo.

Fuente:
http://www.publico.es/ciencias/302775/martillazo/tiburon

viernes, 19 de marzo de 2010

La culminación de un artículo ya publicado: Pescadores, 1; atún rojo, 0

Fracasa el veto a la venta internacional de esta especie - Greenpeace cree que se le está condenando a la extinción
R. MÉNDEZ - Madrid - 19/03/2010

El atún rojo no será una especie protegida y su carne seguirá viajando desde todo el mundo a Japón para ser consumido como sushi. La reunión de la convención sobre el comercio internacional de especies amenazadas que se celebra en Doha (Qatar) rechazó ayer las propuestas de Mónaco y la UE para restringir drásticamente el comercio internacional.

Un portavoz explicó desde Doha que una vez que Mónaco y la UE presentaron sus propuestas, Libia, un país con una gran industria forzó la votación. "Tras un acalorado debate sobre los procedimientos, los países han decidido votar y las dos propuestas han sido rechazadas", según este portavoz. La propuesta europea obtuvo 43 votos a favor, 72 en contra y 14 abstenciones. La iniciativa de Mónaco recibió 20 a favor, 68 en contra y 30 abstenciones, según la ONG Oceana, que se mostró decepcionada por el resultado, aunque advirtió de que existe una pequeña posibilidad de retomar la prohibición.

Mónaco proponía incluir el atún rojo en el convenio Cites, donde están leones, tigres, elefantes y otras especies en extinción. Tras una fuerte discusión, la UE enmendó la propuesta y propuso incluir el atún rojo en esa lista en 2011 pero supeditado a los informes científicos de la Comisión del Atún del Atlántico Norte (ICCAT), el organismo que hasta ahora otorga las cuotas anuales. Muchos países, entre ellos España, recelaban porque no hay ningún pez con valor comercial en Cites, y esto supondría abrir una puerta para que los ecologistas influyeran mucho más en la política pesquera.

La decisión es muy importante para España, que tiene la mayor cuota de pesca de la UE. Limitar el comercio internacional -aunque no afectara a las cuotas de pesca- tendría un gran impacto en la industria española, que suma 4.000 toneladas de pesca de las 22.000 autorizadas en el Atlántico norte y en el Mediterráneo. Un 80% de los ejemplares capturados en las almadrabas de Cádiz y Murcia o por los pesqueros de cerco de Tarragona acaba en Japón, donde los atunes se venden por miles de euros.

Los ecologistas se mostraron contrariados. Greenpeace considera que esto condena al atún rojo a la extinción y WWF lo calificó de escandaloso. Los pescadores se alegraron porque consideran que la propuesta de Mónaco carecía de rigor científico.

Fuente:
http://www.elpais.com/articulo/sociedad/Pescadores/atun/rojo/elpepusoc/20100319elpepisoc_7/Tes

sábado, 27 de febrero de 2010

Pérdida de biodiversidad importa, y es crucial contarlo

Por David Dickson
Director SciDev.Net



Para revertir la pérdida de biodiversidad hay que contarle a la gente por qué es importante que esto no suceda.

El fracaso de las conversaciones sobre el clima en la cumbre de la ONU realizada en Copenhague en diciembre, no pudo ser un preludio menos prometedor para el Año Internacional de la Biodiversidad, que se inició el mes pasado (enero).

Al igual que el cambio climático, la amenaza de pérdida de la biodiversidad a gran escala –y la necesidad de una acción política global para detenerla— crece día a día.

En una reunión sobre biodiversidad organizada por el gobierno británico en enero en Londres, Robert Watson, ex jefe del Panel Intergubernamental sobre Cambio Climático (IPCC por sus siglas en inglés), advirtió que los daños al medio ambiente natural se estaban acercando a ‘un punto de no retorno’, una frase familiar en el debate sobre cambio climático.

Ambos temas enfrentan retos formidables para persuadir a los líderes políticos y al público en general acerca de la urgente necesidad de tomar acción. Las razones son complejas. Pero la raíz es el conflicto entre la necesidad de cambiar radicalmente el uso que damos a los recursos naturales, y el deseo de mantener las formas actuales de crecimiento económico tanto en los países desarrollados como en desarrollo.

Las soluciones son igualmente complicadas. Parte de la respuesta, en cada caso, reside en mejorar la habilidad de los medios para comunicar los mensajes con contenido científico que van emergiendo, de manera que reflejen con exactitud la urgencia de la situación y de qué manera se verá afectada la vida cotidiana de la gente.

Reformulando objetivos

Conseguir que esos mensajes calen no es tarea fácil. Y hasta ahora, en el caso de la biodiversidad, los esfuerzos han fracasado.

Ha quedado en evidencia que los gobiernos signatarios de la Convención sobre Diversidad Biológica (CDB) han fallado en sus objetivos para 2010, establecidos en 2002, de alcanzar “una reducción significativa en las tasas de pérdida de la biodiversidad”.

Como lo han admitido los delegados a la conferencia de Londres y a otras reuniones de lanzamiento del Año Internacional de la Biodiversidad, esta omisión se debe en parte a las deficiencias en la comunicación.

La comunidad científica no ha sido capaz de comunicar eficazmente sus preocupaciones a los formuladores de políticas, al menos no de la manera que priorice suficientemente la conservación de la biodiversidad dentro de una agenda política que está preocupada, de manera predominante, con el empleo y el crecimiento económico.

El debate sobre un nuevo grupo de objetivos para proteger la biodiversidad en la próxima década ya está en marcha y se espera que sean aceptados en octubre, durante la próxima reunión de revisión del CDB, a realizarse en Nagoya, Japón.

Los nuevos objetivos no solamente deben ser más realistas y concretos, sino que deben ir acompañados de una estrategia de comunicación más sofisticada.

Conexiones perdidas
Dicha estrategia debe abordar las debilidades encontradas en los enfoques actuales. Por ejemplo, los temas que a juicio de los científicos son los más importantes con frecuencia parecen abstractos y alejados de las preocupaciones cotidianas de la gente común. La tasa a la que se están perdiendo las especies en el mundo es un ejemplo típico.

Incluso el término ‘biodiversidad’ sufre de esta debilidad, al no concretar conceptos como aumento del nivel del mar. Por esa misma razón, algunos asesores de los medios de comunicación sugieren incluso evitar el término siempre que sea posible, lo que no es muy prometedor para quienes tratan de crear una campaña global alrededor de esa misma palabra.

Gran parte de la cobertura mediática sobre la biodiversidad no logra conectarse con los temas que afectan directamente la vida de las personas. Incluso conceptos como la “red de la vida”, usados para subrayar las interrelaciones de los sistemas vivos, no explica de inmediato por qué deberíamos estar preocupados por la disminución del número de insectos o plantas en lugares distantes.

Finalmente, el tono apocalíptico usado a veces como un intento de dirigir un mensaje casero puede dificultar aún más una acción constructiva. Con demasiada frecuencia, promueve el cinismo o la apatía entre quienes no pueden relacionar esos escenarios de desastre con sus propias experiencias personales.

Los activistas del cambio climático lo han experimentado en meses recientes, cuando trataron de abordar el caso de prevención del calentamiento global durante el invierno más frío que el hemisferio norte haya experimentado en décadas.

La ciencia es difícil; las razones, apremiantes
Ir hacia una estrategia de comunicación más eficaz que evite estos peligros es ciertamente uno de los retos más grandes que enfrenta la comunidad de la diversidad biológica en sus planes para la próxima década.

Y si los investigadores quieren estar a la altura de tal desafío, primero deben concretar en la práctica los argumentos científicos. El daño que las fallas científicas recientemente aireadas está causando a las campañas sobre el cambio climático es un recordatorio de que, con los riesgos tan altos que hay, un razonamiento científico descuidado puede tener un impacto amplio y duradero.

Igualmente importante es la necesidad de integrar esta evidencia científica a las estrategias de crecimiento y desarrollo económico sostenibles. Y esto significa la generación de un discurso público que relacione directamente las necesidades del medio ambiente con las prioridades sociales como empleo, alimentación y salud.

Los componentes para tal diálogo –por ejemplo cómo los productos naturales son fuentes potenciales de nuevas medicinas—ya existen. Pero todavía queda mucho por hacer para integrarlos en una estrategia política viable y eficaz para revertir esas tendencias actuales.

Si el fracaso de Copenhague puede servir como un llamado de alerta a la comunidad de la biodiversidad, será un logro positivo en sí mismo.

Fuente:
http://www.scidev.net/es/science-communication/editorials/p-rdida-de-biodiversidad-importa-y-es-crucial-contarlo.html

miércoles, 30 de diciembre de 2009

Descubrimiento científico: peligra la Puna Argentina


La Puna es uno de los sitios más despoblados de la tierra, pero también uno de los más enigmáticos y sorprendentes, y se deben tomar medidas urgentes para conservar sus recursos naturales, culturales y genéticos.

Por Prof. Norberto Ovando *

La palabra Puna en quechua, significa tierra alta o pampa elevada

En el Noroeste Argentino, el sector ubicado al norte del paralelo 27º 00’, se conoce con el nombre de Puna, la que se encuentra enclavada entre los 3400 y 4500 metros sobre el nivel del mar.

El ambiente Puneño ocupa 31.000 km2 en la provincia de Jujuy, mientras que tanto a Salta como a Catamarca le corresponden 29.000 km2. En la provincia de Salta, la Puna está integrada casi en su totalidad por el departamento de Los Andes y parte de los departamentos de Iruya y Santa Victoria.

La condición paisajística de la Puna, muestra una serie de cadenas montañosas y cerros aislados que encierran valles y bolsones, que por su amplitud imprimen al paisaje características de llanura.

Preservar los ecosistemas

Los humedales altoandinos forman ecosistemas altamente vulnerables y frágiles que se ven amenazado por el sobrepastoreo, las prospecciones y explotaciones mineras, el turismo no regulado y otras actividades antrópicas.

En algunos de estos humedales, el equipo de científicos formado por María Eugenia Farías, Dra. en Ciencias Biológicas, Investigadora Responsable del Proyecto, la Dra. Virginia Helena Albarracín, Investigadora del CONICET; los Becarios Doctorales: Lic. María Regina Flores, Lic. Omar Ordóñez, Julián Rafael, Lic. Marcos Javier Maldonado, Marta Gorriti y los Técnico profesionales Nura Ovrusky y Lucrecia Vera., hallaron organismos vivos denominados estromatolitos, que habitan el planeta desde hace 3500 millones de años.

Los investigadores pertenecen al Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas – LIMLA- (http://www.limla.com.ar/), dependiente del CONICET-CCT-PROIMI, (http://www.tucuman-conicet.gov.ar/estrematolitos.html) siendo su objetivo principal el estudio de la microbiología en ecosistemas extremos en lagunas, humedales y salares en la Puna Argentina.

Los estromatolitos

Los estromatolitos son los indicadores de vida más importantes desde la Era Arcaica y Proterozoica. Son estructuras generadas por comunidades bacterianas en las que predominan cianobacterias, las cuales generan un gel que les protege de radiaciones ultravioletas y contaminación ambiental; cuando el sedimento que cae sobre la colonia se queda pegado al gel y les impide captar la luz, la comunidad se desplaza hacia un “piso” superior, por lo que los estromatolitos tienen una estructura en capas. Los primeros estromatolitos tienen una antigüedad de casi 3.500 millones de años y son los responsables de la oxigenación de la atmosfera terrestre y la creación de la capa de ozono a lo largo de miles de millones de años.

Los estromatolitos son organismos vivos que por su forma de vida son constructores de paisajes, en la actualidad sus restos fosilizados forman montañas, como por ejemplo en el valle de la luna en San Juan, podemos ver paredones formados por estromatolitos fósiles. Actualmente los estromatolitos modernos crecen en muy pocas partes del Planeta, sin embargo, en otras épocas geológicas fueron organismos de éxito evolutivo. Se los puede encontrar en Bahía Tiburón, Australia, 4 Ciénegas México, Bahamas, todos en zonas tropicales y a nivel del mar.

Estos organismos han mantenido hasta hoy su línea evolutiva. No se han extinguido desde su aparición y gracias a ello, pueden conocerse los cambios morfológicos, ecológicos e incluso fisiológicos que han tenido a través del tiempo.

Los estromatolitos constituyen los macrofósiles más antiguos conocidos. Dominan el registro fósil durante un tiempo correspondiente al 80% de la historia geológica del planeta. Fueron creados por microorganismos con características de planta y
animal. Estos microorganismos atrapaban granos de arena y los unían entre sí, o producían carbonato cálcico hasta producir roca caliza capa a capa.

Área del descubrimiento


Los estromatolitos vivos, fueron descubiertos en la zona de la Puna Salteña, Argentina, más precisamente en la laguna de Socompa a 4000 m snm y en seis “ojos de mar” (lagunas pequeñas, profundas y muy saladas) cercanos a la población de Tolar Grande a 3600 m snm en el departamento Los Andes.

El hecho de haberlos encontrado a esta altura hace mas interesante este hallazgo desde el punto de vista científico y tecnológico, ya que a diferencia de los y encontrados en zonas tropical estos se desarrollan bajo gran exposición de Radiación UV, baja tensión de oxígeno (O2) y baja disposición de nutriente, lo que hace a estos ecosistemas el lugar mas parecido a la tierra primitiva (sin O2 y sin capa de Ozono) modificaron que los mismos estromatolitos. Esta es una ventana donde se puede espiar hacia un pasado remoto para estudiar los ciclos evolutivos de nuestro planeta, pero también tienen una gran aplicación biotecnológica ya que los estromatolitos fueron a lo largo de la historia grandes fijadores de dióxido de carbono (CO2), el gas cuya acumulación en la atmosfera esta causando el calentamiento global, por que no pensar que podrían revertirlo?

Los humedales donde se produjo este importante hallazgo, que ayudará a entender mejor el desarrollo y evolución de la vida y de sus diversos ecosistemas durante los primeros miles de millones años de su existencia sobre la Tierra, se encuentran en riesgo de deteriorarse o sufrir modificaciones irreparables.

Que pone en riesgo a estos ecosistemas

Actualmente la economía del Departamento Los Andes donde la Dra. Farías descubrió los estromatolitos, se centra en la minería, principalmente en la extracción de minerales tanto metalíferos como no metalíferos.

La Secretaría de Ambiente y Desarrollo Sustentable de la Nación, en una breve descripción de las ecorregiones de Argentina puntualiza sobre la Puna que:

Si bien la actividad humana es bastante puntual, el sobrepastoreo con ovinos y la extracción desmedida para leña de queñoa causan deterioros ambientales a nivel local, facilitando los procesos erosivos.

Entre las actividades económicas de mayor impacto ambiental y en pleno desarrollo en la unidad, se encuentra la minería. Su accionar negativo sobre la Puna se da por la transformación del paisaje debido a la gran remoción de terreno (minas a cielo abierto), y la posibilidad de contaminar los escasos y singulares cursos de agua con sustancias altamente tóxicas.

El Ing. Agr. Héctor P. Paoli, del Instituto Nacional de Tecnología Agropecuaria – INTA EEA Salta- en su informe sobre Recursos Hídricos de la Puna, Valles y Bolsones Áridos del Noroeste Argentino, asegura que, “El incremento reciente de la exploración y en algunos casos de la explotación minera, plantea una nueva alternativa de desarrollo que lleva implícito una nueva amenaza a los recursos naturales (agua, suelo, flora, fauna, etc.)”.

En abril de 2008, el diario El Tribuno mostró que varios pozos perforados en cercanías de la Laguna Socompa, Quebrada el Agua, el volcán Llullaillaco, la estación andina de Caipe (Arizaro) y el Salar de Río Grande están a un paso de ser conectados a un acueducto que llevaría el agua “exportada” desde el Oeste salteño hacia La Escondida, la mayor mina de cobre del mundo, que explota el grupo australiano BHP Billiton.

El plan es bombear “seis mil litros de agua por segundo” desde Salta en Argentina hacia las mineras de Chile.

Estas aseveraciones, unidas a las noticias periodísticas, nos advierten de la imperiosa necesidad de conservar a través de herramientas jurídicas, los diferentes ecosistemas y humedales de ésta importante eco-región que ocupa una gran porción de las provincias de Salta y Jujuy.

Crear áreas protegidas

La Unión Mundial para la Naturaleza -UICN – (http://www.iucn.org/) y su Comisión Mundial de Áreas Protegidas (CMAP) define como área protegida a “Un espacio geográficamente definido, reconocido, dedicado y gestionado, mediante medios legales u otros tipos de medio eficaces para conseguir la conservación a largo plazo de la naturaleza y de sus servicios ecosistémicos y sus valores culturales asociados”.

La Laguna de Vilama (4650 m snm), en la Puna jujeña, es uno de los cuerpos lacustres donde la Bióloga Farías, hallara un tapete microbiano, es la única que tiene cierto rango de conservación, ya que fue denominada Reserva Provincial Altoandina de la Chinchilla y Declarada Sitio Ramsar el 20 de Setiembre de 2000.

Si bien la provincia de Salta cuenta con la ley 7107 promulgada el 31/10/2000, que establece la creación del Sistema Provincial de Áreas Protegidas (SIPAP), y prevé distintas categorías como ser Reservas Estrictas Intangibles, la Laguna Socompa, y los “ojos de mar” en Tolar Grande y otros humedales ubicados en la Puna salteña, no cuentan con ninguna protección.

Debido a un llamamiento realizado por el equipo de científicos que descubrieron los estromatolitos vivos, el Senador Nacional por la provincia de Salta, Dr. Juan Agustín Pérez Alsina presentó el día 23 de octubre del corriente año, un proyecto de su autoría que lleva el nº de expediente S-3000-09, “para la creación de un Área Natural Protegida en la Puna Salteña, con el objeto de proteger la Laguna Socompa y los seis “Ojos de Mar” cercanos a la localidad de Tolar Grande”.

Nuestra ONG, la Asociación Amigos de los Parques Nacionales – AAPN- solicita a los Senadores y Diputados Nacionales de la Comisión de Ambiente y Desarrollo Sustentable y la de Recursos Naturales y Conservación del Ambiente Humano respectivamente, convertir en Ley lo antes posible, el proyecto presentado por el Senador Pérez Alsina para proteger y conservar a perpetuidad el hallazgo científico de la Dra. Farías.

La solicitud se basa en la reflexión realizada por la investigadora, asegurando que “El haberlos encontrado en la puna (refiriéndose a los estromatolitos) tiene una gran relevancia científica, tecnológica y turística, pero urge, que este ambiente sea preservado de la depredación turística, científica, biotecnológica y sobre todo se requiere un absoluto cuidado del agua superficial y subterránea de esta región”.

Y explicó, “Esto puede producir un verdadero -saqueo- con diferentes finalidades: El saqueo turístico, es decir que turistas se lleven piezas con material genético, como recuerdo. El saqueo con fines científicos y tecnológicos se traduce no sólo en perder nuestro patrimonio, sino una oportunidad invalorable. En este momento cualquier persona puede llevarse un pedazo de tapete con todos sus genes, y nadie se daría cuenta, es hasta probable que después terminemos comprando productos patentados por compañías internacionales y nunca sabríamos que fueron sacados de nuestro patrimonio genético” Por otro lado los estudios de impacto ambiental que se hacen para prospección y explotación minera deberían tener en cuenta la microbiología de estos humeadle, ya que son las base que sustenta la vida en la puna (flamencos, patos, otras aves, camélidos, zorros etc.)” .

Conclusión


Se deben realizar un conjunto de acciones y estrategias tendientes a combinar las funciones de investigación, conservación, desarrollo económico y recreación, para entender así la conciliación entre el aprovechamiento de los recursos naturales y su protección.

Se debe asegurar que permanezcan los factores que garanticen la conservación de los recursos y los procesos naturales, evitando las amenazas a la integridad del hábitat y sus ecosistemas.

* Vicepresidente / Asociación Amigos de los Parques Nacionales – AAPN -

Experto Comisión Mundial de Áreas Protegidas – WCPA – de la UICN.

Red Latinoamericana de Áreas Protegidas – RELAP -

Fuente:
http://blog.nuestroclima.com/?p=1788

viernes, 18 de diciembre de 2009

Lecciones sobre ciencia derivadas del 'climagate'

Por David Dickson




El robo de correos de investigadores del clima permite mostrar cómo se hace ciencia y dejar atrás la defensa a ultranza de la objetividad.

Desde hace tiempo los historiadores de la ciencia saben que Gregor Mendel, el monje agustino que en el siglo XIX descubrió cómo se heredan los caracteres genéticos, dio sólo una versión vaga de sus datos.

Sus métodos experimentales no fueron tan rigurosos como era de esperarse y no publicó los resultados de sus experimentos que no se desarrollaron como él esperaba.

Revelaciones como estas muestran que la ciencia es menos exacta de lo que mucha gente pudiera creer. Pero eso no invalida las observaciones de Mendel, las que se transformaron en la piedra angular de la genética moderna.

Lo mismo podría decirse del escándalo del 'Climagate' que surgió el mes pasado luego que fueran robados varios correos electrónicos de la Unidad de Investigación Climática de la Universidad de East Anglia, en Inglaterra. Los mensajes sugieren que algunos investigadores de esa universidad podrían haber seleccionado datos favorables en sus publicaciones para impulsar los argumentos sobre la severidad del cambio climático y su origen en la actividad humana.

Los científicos vinculados al Panel Intergubernamental de Cambio Climático (IPCC, por sus siglas en inglés), el cuerpo encargado de evaluar el estado actual de la ciencia relacionada con el calentamiento global, reaccionaron rápidamente al declarar que los mensajes electrónicos no le restan importancia al amplio consenso sobre la importancia del cambio climático, ni tampoco invalidan los llamados de acciones urgentes.

Pero esas respuestas, hasta ahora, han tenido poco impacto en quienes se oponen a los pedidos de acción internacional y cambios de estilo de vida para hacer frente al calentamiento climático.

Ahora existe un fuerte argumento para revisar cómo la ciencia se presenta ante el público y ante los políticos, y contrarrestar la oposición. Y qué mejor tema para hacerlo que el cambio climático, cuando los líderes del mundo están reunidos en la Convención Marco de las Naciones Unidas sobre el Cambio Climático en Copenhague, Dinamarca, esta semana.

A la defensiva en Copenhague

Como era de esperarse, el Climagate es un tema candente — tanto privada como públicamente — en la Convención.

Por ejemplo, el director del IPCC, Rajendra Pachauri, enfatizó que los resultados publicados por los científicos de East Anglia han sido confirmados por decenas de miles de climatólogos independientes en todo el mundo. No importa cuáles fueron las estrategias o los puntos de vista “no científicos” discutidos en los correos electrónicos, lo importante es que los artículos resultantes fueron rigurosamente evaluados por pares antes de su publicación, subrayó Pachauri.

Pero Mohammad Al-Sabban, el principal negociador en Copenhague de Arabia Saudita — un país dispuesto a mantener alto consumo de petróleo y que hace tiempo se opone a tomar fuertes acciones contra el cambio climático — reclamó que los correos electrónicos dejan claro que “no hay ninguna relación entre la actividad humana y el cambio climático”.

Este tipo de reacción ha puesto al IPCC a la defensiva, mientras sus funcionarios condenan la publicación de los correos electrónicos como un acto ilegal dirigido a desacreditar el trabajo del panel.

La cara humana de la ciencia


Las presuntas motivaciones son creíbles. No es una coincidencia que los correos electrónicos fueron dados a conocer justo antes de la reunión en Copenhague. Los responsables deben estar satisfechos con el efecto que el Climagate ha tenido en impulsar la oposición contra cualquier argumento sobre una acción firme.

Pero desestimar los correos electrónicos sobre la base de que fueron obtenidos ilegalmente hace perder el punto importante del tema que es mostrar a la ciencia como un proceso más humano de lo que usualmente se cree.

Los correos electrónicos revelan que los científicos que los escribieron estaban frustrados por los ataques de los críticos y, como Mendel, estaban ansiosos por intensificar la fuerza de sus conclusiones. Unos pocos cuestionarían la idea de que muchos científicos estarían dispuestos a realzar sus hallazgos; el crimen de los investigadores parece haber sido expresarlo por escrito.

Para ganar la confianza del público, los científicos cada vez están bajo una mayor presión que implica mostrar abiertamente cómo obtienen sus resultados.

Sin embargo, si los investigadores deben ser más transparentes para evitar ser acusados de alterar datos, el público también debe aceptar cómo se practica la ciencia realmente — un punto que resaltan los investigadores Mike Hulme y Jerome Ravetz en un reciente comentario a la BBC.

Para lograrlo, los científicos deben trabajar más para mostrar su cara humana cuando explican los procesos y prácticas en lugar de esconderse detrás de la idea de que la ciencia es enteramente objetiva.

Convertir el ataque en oportunidad


El Climagate está enseñando al IPCC esta lección del modo más duro. Al depender demasiado en la aparente objetividad de sus evaluaciones científicas para darle autoridad, el Panel ha hecho que tanto sus conclusiones como sus miembros sean políticamente vulnerables. Ahora cualquier crítica que ponga en tela de juicio la objetividad de las investigaciones usadas por el IPCC, por mínima que sea, socava su reputación.

Por ejemplo, el informe de que los glaciares de India podrían no desaparecer tan rápido como el IPCC había predicho también ha dado a los escépticos una oportunidad para continuar sus críticas.

El IPCC, en su favor, se esfuerza por ser transparente en su propio manejo de la evidencia científica al hacer buen uso de los canales de comunicación. Por ejemplo, presenta y responde ‘en línea’ a cada uno de los alrededor de 300,000 comentarios recibidos sobre su reciente informe de evaluación, publicado en 2007.

Pero si no está preparado para aceptar una imagen más real de cómo se recopila la evidencia científica, esa transparencia no será suficiente.

Los medios, también, deben mejorar su comprensión y descripción de la ciencia.

Frecuentemente, los medios demandan una visión en blanco o en negro de la evidencia científica, en lugar de una descripción más matizada basada en la naturaleza social de la investigación científica. Esto subestima la verdadera fortaleza del proceso científico y socava la solidez de las decisiones políticas basadas en los resultados de la investigación.

En el corto plazo, el Climagate puede dañar la causa de aquellos que buscan acciones rápidas y fuertes contra el cambio climático. Pero, si en el proceso ayuda a dar argumentos a los políticos, al público y a los medios para entender cómo trabaja realmente la ciencia, sólo podrá reforzar las soluciones que el mundo necesita para enfrentar el cambio climático.
David Dickson

Fuente:
http://www.scidev.org/es/editorials/lecciones-sobre-ciencia-derivadas-del-climagate--1.html

Mayor Pérdida de Nitrógeno en Suelos Por el Ascenso de las Temperaturas


A medida que el clima se calienta, las tierras áridas pierden nitrógeno en forma de gas. Eso podría llevar a desiertos con aún menos vida vegetal que la muy escasa que poseen hoy en día.

"Ésta es una forma de pérdida de nitrógeno de los ecosistemas que no había sido considerada nunca antes", subraya Jed Sparks, profesor de ecología y biología evolutiva en la Universidad Cornell.

El hallazgo podría permitir a la comunidad científica comprender finalmente la dinámica del nitrógeno en los sistemas áridos.

El nitrógeno biológicamente disponible es el segundo factor, superado sólo por el agua, en cuando a importancia para la actividad biológica en los ecosistemas áridos, pero anteriormente los ecólogos tenían dificultades para entender cómo se equilibran las fuentes y los sumideros del nitrógeno en los desiertos.

Al mostrar que las temperaturas más altas provocan que el nitrógeno se escape en forma de gas de los suelos desérticos, los investigadores de la Universidad Cornell han aclarado el ciclo del nitrógeno en los desiertos. Ellos enfatizan que casi todos los modelos de cambio climático necesitan ser modificados para tener debidamente en cuenta lo descubierto en este estudio.

Sparks y Carmody McCalley advierten que el aumento de las temperaturas y los cambios en los patrones de las precipitaciones debidos al cambio del clima pueden llevar a mayores pérdidas de nitrógeno en los ecosistemas áridos. Eso causaría que las tierras áridas se volvieran aún más infértiles e incapaces de dar soporte a la vida vegetal. Aunque algunos modelos climáticos predicen más lluvias para las áreas desérticas en los meses del verano, el agua, combinada con el calor, aumentaría grandemente las pérdidas de nitrógeno.

Además, hacen notar los investigadores, más óxidos de nitrógeno en la baja atmósfera crearían ozono cerca del suelo, el cual a tan escasa altura hace más daño que bien, ya que contribuye a la contaminación atmosférica y aumenta el efecto invernadero que calienta al planeta.

Con una cantidad de desiertos que representan del 35 al 40 por ciento de la superficie de la Tierra, y siendo las zonas áridas y semiáridas las más probables para los nuevos asentamientos humanos, se necesita prestar la máxima atención a los temas relacionados con la pérdida de fertilidad de los suelos y los procesos de desertificación a medida que avanza el calentamiento global.

Los investigadores también señalan que la mayoría de los modeladores del clima usan algoritmos que sólo consideran los factores biológicos para predecir las emisiones gaseosas de nitrógeno provenientes del suelo.

Fuente:
http://www.amazings.com/ciencia/noticias/161209e.html

Virus Sincicial Respiratorio: convocan a participar en estudio para vacuna infantil

Un equipo de científicos en Rosario participa de un estudio internacional para desarrollar una vacuna pediátrica intranasal. El objetivo es ...