martes, 29 de marzo de 2011

Las normas japonesas para las plantas nucleares dependían de la vieja ciencia


De acuerdo a este artículo, el gobierno japonés y las agencias encargadas se basaron en antiguos informes desestimando investigaciones más recientes al momento de crear las condiciones de seguridad para las plantas nucleares.
Las consecuencias del tsunami en Japón se prolongarán por largo tiempo.

Por Norimitsu Onishi y James Glanz
Traducción de Claudio Pairoba
26/03/2011

TOKIO – En el país que le dio al mundo la palabra tsunami, el establishment nuclear japonés en su mayoría no tuvo en cuenta la fuerza destructiva potencial de las paredes de agua. La palabra ni siquiera aparece en las pautas del gobierno hasta el 2006, décadas después de que las plantas – incluyendo las instalaciones de Fukushima Daiichi con las que los bomberos todavía están luchando para poder controlar – comenzaran a poblar las costas japonesas.

La falta de atención puede explicar como, en un país que es una isla rodeada por placas tectónicas en choque que generalmente producen tsunamis, las protecciones fueron tan trágicamente minúsculas comparadas con el tsunami de casi 14 metros que asoló la planta de Fukushima el 11 de Marzo. Los rompeolas mar adentro, diseñados para  proteger contra tifones pero no contra tsunamis, sucumbieron rápidamente como primera línea de defensa. La ola creció hasta llegar a ser casi 3 veces más alta que el risco sobre el cual la planta había sido construída.

El gobierno japonés y los directivos de las empresas públicas han dicho repetidas veces que los ingenieros nunca podrían haber anticipado un terremoto de magnitud 9.0 – el más grande en la historia japonesa – que hizo que el fondo del mar temblara originando el enorme tsunami. Pero aún así, los sismólogos y los expertos en tsunamis expresan que de acuerdo a información fácilmente accesible, un terremoto con una magnitud tan baja como 7.5 – sumamente común en el anillo del Pacífico – podría haber creado un tsunami lo suficientemente grande para sobrepasar el risco de Fukushima.

Después de que un grupo asesor emitiera recomendaciones no vinculantes en el 2002, la Compañía de Energía Eléctrica de Tokio, la dueña de la planta y la empresa más grande de Japón, elevó el máximo tsunami esperable en Fukushima Daiichi a alrededor de 5 metros – considerablemente superior que el risco de 3,90 metros. Sin embargo, la compañía pareció responder solo elevando el nivel de una bomba eléctrica cercana a la costa en 20 cm, presumiblemente para protegerla de los altos niveles de agua, de acuerdo a los inspectores.

“Sólo podemos trabajar sobre precedentes, y no había precedentes”, manifestó Tsuneo Futami, un ex Ingeniero Nuclear de Tokio quien fuera director de Fukushima Daiichi a finales de los 90. “Cuando dirigí la planta, la idea de un tsunami nunca se me cruzó por la cabeza.”
La intensidad con la cual el terremoto sacudió la tierra en Fukushima también superó los criterios usados en el diseño de la planta, aunque por un factor significativamente menor que el tsunami, de acuerdo a información suministrada por Tokyo Electric al Foro Industrial de Energía Atómica de Japón, un grupo profesional. Basado en lo que se sabe ahora, el tsunami comenzó la crisis nuclear inundando los generadores de refuerzo necesarios para hacer funcionar el sistema de enfriamiento del reactor.

Japón es conocido por su gran experiencia técnica. A pesar de esto y por décadas los altos estamentos japoneses e incluso partes de su establishment de ingenieros se aferraron a antiguos preceptos científicos para proteger plantas nucleares, apoyándose mayormente en registros de terremotos y tsunamis, sin tener en cuenta los avances en sismología y evaluación de riesgos existentes desde la década del 70.
Para algunos expertos, la subvaloración de la amenaza del tsunami en Fukushima es frustrante y nos recuerda al terremoto – esta vez sin tsunami – en Julio del 2007 que golpeó Kashiwazaki, una planta eléctrica perteneciente a Tokyo Electric en la costa oeste de Japón. La tierra en Kashiwazaki se sacudió dos veces y media más que la máxima intensidad estimada cuando se diseño la planta, haciendo necesarias mejoras en la misma.

“Tuvieron años para prepararse hasta ese momento, después de Kashiwazaki, y estoy viendo la misma cosa en Fukushima,” dijo Peter Yanev, un experto en evaluación de riesgo sísmico con sede en California, quien ha estudiado a Fukushima para la Comisión Regulatoria Nuclear de los EE.UU. y para el Departamento de Energía.

No hay dudas de que cuando se diseñó Fukushima la sismología y su intersección con la Ingeniería Estructural de las plantas nucleares estaba en sus comienzos, dijo Hiroyuki Aoyama de 78 años, un experto en la resistencia de plantas nucleares a los terremotos quien ha servido en grupos de asesoría para el gobierno japonés. Los ingenieros aplicaron muchas conjeturas, adoptando como estándar que las estructuras dentro de las plantas nucleares deberían tener 3 veces la resistencia a terremotos que tienen los edificios comunes.
“No había sustento para elegir 3 veces”, expresó Aoyama, un profesor emérito de Ingeniería Estructural de la Universidad de Tokio. “El objetivo era vago”.

Evolución de los diseños
Cuando los Ingenieros japoneses comenzaron a diseñar su primera planta nuclear más de 4 décadas atrás, buscaron indicios en el pasado sobre cómo proteger su inversión en la energía del futuro. Los archivos oficiales, algunos de ellos centenarios, contenían información sobre la manera en que los tsunamis habían inundado pueblos costeros, permitiéndoles a los ingenieros estimar su altura.
De manera que se construyeron las paredes más elevadas que los más altos tsunamis registrados. En Fukushima Daiichi, la cuarta planta más antigua del Japón, los directivos de la Tokyo Electric usaron un tsunami contemporáneo – una ola de 3,15 metros de altura causada por un terremoto de magnitud 9.5 ocurrido en Chile en 1960 – como punto de referencia. El risco de 3,90 metros sobre el cual se construyó la planta, iba a servir como una pared de contención natural, de acuerdo a Masaru Kobayashi, un experto en resistencia a terremotos de la Agencia de Seguridad Industrial y Nuclear, el ente regulador japonés.
Los rompeolas de 5,40 metros fueron construídos como parte de la estrategia anti-tsunami de la compañía, dijo Jun Oshima, una vocera para la Tokyo Electric. Pero los inspectores manifestaron que los rompeolas – fundamentalmente destinada a proteger a los botes – ofrecían cierta resistencia contra los tifones, pero no los tsunamis, expresó Kobayashi.

A través de las décadas, el estar preparado ante los tsunamis nunca fue una prioridad para las compañías de energía japonesas o para los reguladores nucleares. Tal vez se confiaron, según los expertos, en el hecho de que ningún tsunami había golpeado a una planta nuclear hasta hace dos semanas atrás. Aunque los simulacros de tsunami ofrecieron nuevas formas de determinar los riesgos de los mismos, los operadores de las plantas hicieron pocos cambios en sus vetustas construcciones, y los reguladores nucleares no los presionaron.

Los ingenieros adoptaron un enfoque similar con el tema los terremotos. Cuando llegó el momento de diseñar la planta de Fukushima, los informes oficiales que datan del 1600 mostraron que los terremotos más fuertes mar adentro de lo que hoy sería la Prefectura de Fukushima eran de magnitud 7.0 a 8.0, manifestó Kobayashi.

“Se lo dejamos a los expertos,”dijo Masatoshi Toyoda, un vicepresidente retirado de la Tokyo Electric quien supervisó la construcción de la planta. Agregó que “buscaron información en viejos documentos acerca de cuántas lápidas se habían caído y cuestiones similares.”
 Con el tiempo, los expertos de los comités gubernamentales comenzaron a presionar para tener normas de construcción más estrictas, y para 1981, las normas incluían referencias a los terremotos pero no a los tsunamis, de acuerdo a la Agencia de Seguridad Industrial y Nuclear. Esa presión creció de manera exponencial luego del devastado terremoto de Kobe en 1995, expresó Kenji Sumita, quien ocupó un alto cargo en la Comisión de Seguridad Nuclear del gobierno japonés a fines de los 90.

Sumita manifestó que las compañías de energía, las cuales estaban enfocadas en completar la construcción de una docena de reactores, se resistieron a adoptar estándares más estrictos, y no enviaron representantes a las reuniones sobre ese tema en la Comisión de Seguridad Nuclear.
“Otros enviaron gente de forma inmediata”, dijo Sumita, refiriéndose al ámbito académico y a expertos de la industria de la construcción. “Pero las compañías de energía se movieron con lentitud y no vinieron.”
Mientras tanto, las ciencias de la sismología y la evaluación de riesgos avanzaron en todo el mundo. Aunque la Comisión Regulatoria Nuclear de los EE.UU. ha sido víctima de severas críticas por no llevar adelante la adopción de estas nuevas técnicas, la agencia usó muchas de ellas en nuevas revisiones hechas planta por planta, dijo Greg S. Hardy, un ingeniero estructural de Simpson Gumpertz y Heger quien se especializa en el diseño de plantas nucleares y riesgo sísmico.

Cualquiera sean las razones – culturales, históricas o simplemente financieras – los ingenieros japoneses que trabajaban en plantas nucleares continuaron prediciendo lo que ellos creyeron eran terremotos extremos basados en sus informes.
Aquellos métodos, sin embargo, no tuvieron en cuenta serias incertidumbres como fallas que no habían sido descubiertas o terremotos que eran gigantescos aunque raros, dijo Hardy, quien visitó Kashiwazaki después del movimiento del 2007 como parte de un estudio patrocinado por el Instituto de Investigación en Energía Eléctrica.
“Los japoneses se quedaron atrás,” dijo Hardy. “Una vez que ellos proclamaron que este era el terremoto máximo, tuvieron dificultades reevaluando eso a medida que ingresaban nuevos datos.”
Esta aproximación japonesa, a la cual se la conoce en el ambiente como “determinista”- en oposición a “probabilística”, o que considera lo desconocido – de alguna manera pegó, dijo Noboru Nakao, un consultor quien se desempeño como ingeniero nuclear en Hitachi por 40 años y fue presidente del centro de entrenamiento japonés para operadores de reactores a vapor.

“Las reglas de seguridad japonesas son generalmente deterministas ya que los métodos probabilísticos son muy difíciles,” expresó Nakaom agregando que “los EE.UU. tienen mucho más métodos de evaluación de riesgos.”
La ciencia de los tsunamis también avanzó, con métodos mucho mejores para medir sus tamaños, estadísticas vastamente expandidas a medida que hubo más ocurrencias y cálculos de computadoras que ayudan a predecir qué clases de tsunamis son producidos por terremotos de distintos tamaños. Dos borradores de trabajos de investigación independientes desarrollados por expertos en tsunamis – Eric Geist de la Inspección Geológica de los EE.UU. y Costas Synolakis, profesor de Ingeniería Civil de la Universidad del Sur de California – indican que los terremotos de magnitud 7.5 pueden crear tsunamis suficientemente grandes para pasar por encima del risco de 3,90 metros que protege a la planta de Fukushima.
Synolakis consideró a la subestimación del riesgo de tsunami por parte de Japón “una cascada de errores estúpidos que condujeron al desastre” y agregó que la información relevante era prácticamente imposible de soslayar por cualquiera que trabaje en el tema.

Subestimando los riesgos
La primera referencia clara a los tsunamis apareció en los nuevos estándares para las plantas nucleares de Japón emitidos en 2006.
“Las normas del 2006 se referían a los tsunamis como un fenómeno que acompañaba a los terremotos, y urgía a las compañías de energía a que pensaran en eso,” manifestó Aoyama, el ingeniero estructural experto.
El riesgo había recibido algo de atención en 2002, cuando un grupo consejero del gobierno, la Sociedad Japonesa de Ingenieros Civiles, publicó normas recomendadas para tsunamis en referencia a los operadores nucleares.

Un grupo de estudio de la sociedad, incluyendo a profesores y representantes de empresas como Tokyo Electric, evaluaron información de tsunamis anteriores así como nuevas investigaciones acerca de líneas de falla y geografía local con el objetivo de elaborar las normativas, de acuerdo a un miembro del grupo de estudio quien habló bajo la condición de anonimato, citando lo delicado de la situación.
El mismo grupo había estado discutiendo recientemente las revisiones a esos estándares, de acuerdo a este miembro. Durante la última reunión del grupo, llevada a cabo una semana antes del último tsunami, los investigadores debatieron acerca de la utilidad de las simulaciones tridimensionales para predecir el potencial daño que los tsunamis podrían causar en plantas nucleares, de acuerdo a las minutas de esas reuniones. “Tomamos en cuenta más que solo datos del pasado,” indicó el miembro. “Tratamos de predecir. Nuestro objetivo fue reducir la incertidumbre.”

Quizás la observación más triste proveniente de los científicos fuera del Japón es que, incluso a través de la estrecha lente de los tsunamis pasados, la posibilidad de que las medidas de seguridad anti tsunami fueran superadas tendría que haber sido detectada. En 1993 un movimiento de magnitud 7.8 produjo tsunamis con alturas superiores a los 9 metros mar adentro de la costa occidental del Japón, con resultados ampliamente devastadores, de acuerdo con estudios científicos e informes de ese momento.
En la isla de Okushiri, una de las más afectadas, “la mayoría de las áreas pobladas que fueron severamente golpeadas por el tsunami estaban rodeadas por paredes contra los mismos” de hasta 4 metros y medio de alto, de acuerdo a un informe escrito por Yanev. Estas paredes eran entre 30 y 60 cm más altas que el risco de Fukushima.
Pero como en un presagio de lo que ocurriría 18 años más tarde, las paredes de Okushiri, Yanev, el experto en evaluación de riesgo sísmico, escribió, “pueden haber moderado los efectos generales del tsunami pero fueron ineficientes para las olas más grandes.”

Incluso el pasado distante estaba dando nueva información que podría haber servido como advertencia renovada.
Dos décadas después de que Fukushima Daiichi comenzara a funcionar, los investigadores que estudiaron minuciosamente antiguos reportes estimaron que un terremoto conocido como Jogan había producido un tsunami que penetró cerca de un kilómetro y medio en una isla de un área al norte de la planta. Ese tsunami se produjo en el 869.

Norimitsu Onishi informó desde Tokio y James Glanz desde Nueva York. Ken Belson e Hiroko Tabuchi contribuyeron informando desde Tokio.

Fuente:
www.nytimes.com

sábado, 19 de marzo de 2011

Clonación: desde caballos de polo a gatos que no dan alergia

Se presentó en sociedad Ñandubay, primer equino nacido con esta técnica.  


06/03/11
Por Matías Longoni

Ñandubay Bicentenario nació el 4 de agosto del año pasado y acaba de cumplir siete meses, una edad suficiente como para salir a dar su primer paseo. El potrillo eligió Expoagro para esa salida. Posó junto a su madre durante los 4o días de exposición y sorprendió a muchos que se enteraban quién era apenas leían el cartel fijado a pocos metros de su corral: “primer equino clonado viable de Latinoamérica”.

Ñandubay es, por cierto, el primer caballo que nació en esta parte del mundo mediante la técnica de clonación. Hubo otro antecedente en 2008, pero el potrillo no llegó a vivir ni medio día. De allí lo de “viable”. Ñandubay luce sano y fuerte. Eso es lo que quisieron mostrar en Expoagro sus creadores, que trabajan bajo el paraguas de un acuerdo entre la Facultad de Agronomía de la UBA (FAUBA), el laboratorio Bio Sidus y la cabaña Don Antonio. Ñandubay duerme todas las noches en ese lugar, que queda sobre la ruta 9, a escasos kilómetros de esta muestra.

Ñandubay sorprende, pero no llama la atención, porque no le sobran patas ni le falta un ojo; luce como un potrillo común. Es hijo de un padrillo de la raza criolla (que donó para el experimento una célula de su piel), de una yegua anónima (de la que tomaron un óvulo no fecundado), y de otra yegua receptora que albergó el embrión dentro de su vientre y es la que hoy lo cuida y protege.

Pero Ñandubay también es hijo de la ciencia, que dio otra muestra de que la Argentina también puede picar en punta en materia de clonación. A nivel global no es muy lejana la primera clonación de un equino. Sucedió en 2003, en Italia, 6 años después del nacimiento del primer animal clonado del planeta, la Oveja Dolly .
Lo que sorprende de Ñandubay es que quienes lograron “fabricarlo” son jóvenes argentinos de menos de 30 años . Javier Jarazo y Andrés Gambini son veterinarios recién recibidos de diferentes universidades públicas, y Florencia Karlanian es estudiante. El equipo estuvo apoyado por la gente de Bio Sidus y cuenta con la coordinación del titular de la Cátedra de Biotecnología Animal de la FAUBA e investigador del Conicet, Daniel Salamone. Este hombre es quien propone cada día un nuevo desafío a sus discípulos: ahora pretende usar la clonación para obtener un gato que no provoque alergia.

Los jóvenes científicos, con el nacimiento de Ñandubay, pusieron el foco en mejorar las técnicas de la clonación animal. Pero saben que, en un futuro, esta técnica podrá ser de usada para “repetir” caballos que ya no pueden reproducirse pero se destacan en ciertos deportes, o animales que murieron y tenían grandes cualidades. Esta técnica choca por ahora con algunas resistencias, como la de los criadores de Pura Sangre de Carrera, que solo permiten la reproducción natural de los animales. Pero tienen un guiño para avanzar de otras asociaciones, como las de Caballos de Polo y de Salto.

Fuente:
http://www.clarin.com

jueves, 17 de marzo de 2011

Actividades en la Semana “Día Mundial del Agua”


Se han organizado distintas propuestas de concientización desde el Sábado 19 hasta el Martes 22 de Marzo.
El Dr. Faccendini presentará su libro el Martes 22 de Marzo a las 18 hs.

Por Claudio Pairoba

El Martes 22 de Marzo se celebra el Día Mundial del Agua y con tal motivo la Cátedra Libre del Agua, dirigida por el Dr. Anibal Faccendini, ha organizado una serie de actividades (Ver volante adjunto con descripción).

La Semada Día Mundial del Agua se inició con una presentación en Rectorado describiendo los eventos organizados, la cual contó con la presencia del Sr. Rector Prof. Darío Maiorana, el Secretario General Dr. Darío Masia, el Secretario de Cultura y Educación de la Municipalidad de Rosario, Horacio Ríos y el Dr. Faccendini.

El Sábado 19 de Marzo a las 11 hs, y con la participación de varios clubes, se realizará una respetuosa ofrenda al agua y al Río Paraná. Por la tarde, se presentarán Jorge Fandermole y otros dos grupos musicales. El Lunes 21 se podrá disfrutar de una muestra pictórica titulada “Agua Bien Común” y el Martes 22 se darán por terminados los eventos con la presentación del libro “Agua y Saneamiento: Derecho Humano Esencial. El bien común. La privatización del agua en Santa Fe 1995-2005. Diez años de apropiación indebida. La vulneración de un derecho.”

El Prof Maiorana destacó la prioridad de dar visibilidad a la temática del agua para que la misma sea abordada no sólo desde una instancia académica sino desde la concientización y la propuesta.

Por su parte, el Secretario de Cultura y Educación de la Municipalidad de Rosario, Horacio Ríos, expresó que se buscó apoyar estas jornadas de concientización organizando un espectáculo de más volumen, en el cual se destaca Jorge Fandermole. En sus palabras, el consumo de cultura permite acercar a otros públicos a esta problemática.

Finalmente el Secretario General, Dr. Masia, enfatizó la importancia de concientizar y remarcó la constancia del Dr. Faccendini al ocuparse de esta problemática. Asimismo consideró que las implicancias del tema del agua es una de las situaciones que nuestra Universidad tiene que abordar.

El Dr. Faccendini viene ocupándose del tema desde hace unos 20 años, cuando encaró la temática del agua desde una perspectiva social relacionada con la necesidad de cloacas en distintas zonas de nuestra ciudad. Desde hace un tiempo también se ocupa de los aspectos ambientales relacionados. Con respecto a su libro, destacó que el mismo tiene un abordaje sociológico y jurídico, aspectos que lo movilizaron para comprometerse con esta causa.

martes, 15 de marzo de 2011

Miradas alternativas sobre combustibles alternativos (Tercera parte): Las respuestas del Dr. Montico


Última entrega de la serie sobre Biocombustibles donde el Dr. Montico responde preguntas de nuestra Secretaría.
Las nuevas miradas permiten analizar los Biocombustibles en mayor profundidad .

Al principio había una euforia y apoyo general respecto del tema de los Biocombustibles. ¿Cómo ve esta cuestión en la actualidad? ¿Hubo algún hecho en particular que determinó la aparición de voces críticas en este tema?


En realidad las voces críticas estuvieron desde que se comenzó a avizorar este tema. Su instalación en la Agenda Internacional data de más de una década, claro que con mayor énfasis en los últimos años. Cuando se tuvieron más datos y también confiables sobre la expansión de este nuevo mercado a la luz del cambio transicional de la matriz energética mundial, surgieron diversas opiniones que definieron dos posturas contrapuestas, algunas pocas más conciliadoras. La controversia radica principalmente en el destino de la producción de granos y oleaginosas, sí a su transformación en biocarburantes de primera generación (B1G) o a sostener la oferta alimentaria. Pero no sólo eso se objeta, sino también aquello relacionado con cuestiones geoestratégicas. Se argumenta que como los países desarrollados son incapaces de autoabastecerse de B1G porque ello los obliga a destinar superficies para la producción granaría que no disponen, para satisfacer sus necesidades de corte de los combustibles fósiles, acuden al estímulo de los países en vías de desarrollo para que sean estos los que cumplan ese rol. De esta manera los asocian indirectamente a sus políticas energéticas. Claro que cuando esta demanda no tiene la contención debida se producen y producirán externalidades perniciosas. Entonces para los que ven en ello una oportunidad de un mercado promisorio, en auge y cada vez más robusto, otros temen por las presiones que sufrirán tanto los recursos naturales como las comunidades más vulnerables, principalmente de los países del Sur. La cuestión está instalada y muy lejos de conciliarse las posturas antagónicas.

¿Considera que el avance futuro en el tema será diferente a la forma en que se venía manejando?


Esto dependerá fundamentalmente del rol que desempeñen los sectores en pugna. Se trata de poder, del poder del manejo de las fuentes de energía, es improbable que se alcancen acuerdos y consensos internacionales sobre las formas de producir, distribuir y comercializar los biocombustibles a partir de una organización equilibrada. Sabemos que históricamente no fue posible con el petróleo, parece menos aun en esta cuestión. No obstante existen esfuerzos por contribuir a darle más seguridad al mercado de la bioenergía, estos más el surgimiento de nuevas formas de obtención de energía de biomasa, la certificación de la producción, los estudios de Análisis de Ciclo de Vida de los B1G, y otras recientes propuestas, podrían reorientar algunos aspectos de esta intrincada trama de interacciones sociopolíticas, económicas, tecnológicas y ambientales.

¿Cuánto hace que Ud. y su grupo vienen trabajando en el tema de Biocombustibles?


Nuestro grupo comienza a desarrollar actividades vinculadas con la gestión de la energía en sector rural desde 2004. Durante los primeros años de trabajo nos dedicamos a comprender energéticamente los sistemas de producción agropecuarios regionales. Los objetivos se centraron en conocer la relación entre la energía invertida y la obtenida en los planteos agrícolas y ganaderos. Saber sobre la eficiencia en los distintos tipos de suelos, en diferentes regiones y prácticas agronómicas contrastantes arrojó resultados sumamente relevantes que posibilitaron también integrarlos más adelante en los nuevos proyectos de B1G. Actualmente trabajamos sobre la cadena integrada, es decir, estudiamos desde varios enfoques la evolución desde la siembra del cultivo hasta la obtención del biocombustible.

¿Cómo estuvo compuesta la audiencia y que comentarios recibió de la misma después de la jornada “Aportes para el análisis de la sustentabilidad de los Biocombustibles” de Noviembre del 2010?


La jornada fue un éxito. Creímos conveniente plantearla durante el desarrollo de nuestras investigaciones de manera de contar también con la percepción de la comunidad sobre este tema. Además tratamos de cumplir con aquel mandato de la Universidad, mostrar a la sociedad los resultados de nuestro trabajo para su conocimiento y discusión colectiva. En este sentido, la convocatoria fue abierta y más de cien asistentes nos acompañaron atentamente. Participaron alumnos universitarios (de diferentes disciplinas), profesores de la Universidad y del nivel terciario, alumnos de licenciaturas y tecnicaturas, profesionales del INTA, funcionarios comunales y municipales e integrantes de empresas afines, entre los mayoritarios.
Nuestra satisfacción está fundada en los resultados de las encuestas que realizamos en esa oportunidad, tanto las exposiciones como el espacio de debate surgido fueron altamente valorados por todos.

¿Cuáles son algunos de sus próximo proyectos relacionados con el tema Biocombustibles?


Actualmente estamos avanzado sobre aspectos relacionados con: las respuestas en rendimiento físico de los cultivos dominantes de la región pampeana norte, a través de modelos de simulación en escenarios ambientales contrastantes; la elaboración de balances energéticos de algunos cultivos de cereales y oleaginosos que se destinan a la obtención de biocombustibles; la construcción a escala territorial de mapas de aptitud agroecológica para la producción de cultivos destinados a usos bioenergéticos; el análisis de las cadenas
agroenergéticas que permiten valorar la eficiencia global y de los componentes del flujo de energía, partiendo del proceso agroproductivo primario hasta la disposición final del biocombustible; el estudio de los impactos ambientales relacionados con la producción de biocombustibles, valorando los nodos de concentración de la energía y del transporte como flujo energético; la exploración de la posibilidad de estimar balances energéticos de cultivos intensivos (hortícolas, etc.), como la utilización de bioresiduos en el
desarrollo de tecnología de segunda generación.

La idea a futuro es trabajar más profundamente aspectos socioculturales vinculados con la gestión integrada de los biocombustibles a nivel nacional e internacional, aportar a la definición de indicadores de sustentabilidad que posibiliten optimizar la valoración de la cadena agroenergética y estudiar las posibilidades de producción de biomasa con destino a biocombustibles de segunda generación y en tierras de baja aptitud agrícola.

En su momento en la Argentina se vendía alconafta, algo que con el tiempo se dejó de hacer. ¿Se puede decir que la alconafta fue uno de los primeros biocombustibles? ¿Qué diferencias hay entre la alconafta y el bioetanol?


Pueden decirse que sí. Ahora, la nafta con bioetanol no es una alconafta. La alconafta que se comercializaba en la década del 80 era un combustible que contenía un 15 % de etanol, razón por la cual se lo denominaba alconafta. Las naftas que se comercializan actualmente tienen un porcentaje de bioetanol menor al 10 % en su formulación y con este porcentaje el producto se define como una nafta.
 

martes, 8 de marzo de 2011

Títulos y dólares

Por Paul Krugman - 06/03/11

Traducción de Claudio Pairoba



Es una verdad universalmente reconocida que la educación es la llave hacia el éxito económico. Todos saben que los empleos del futuro requerirán cada vez mayores niveles de capacitación. Es por ello, que el Viernes durante una aparición con el ex Gobernador de Florida, Jeb Bush, el Presidente Obama declaró que “Si queremos más buenas noticias en el tema empleos entonces tenemos que invertir más en educación.”

Pero lo que todos saben es equivocado.

Al día siguiente del encuentro Obama-Bush, The Times publicó un artículo acerca del uso creciente de software para llevar adelante investigación legal. Resulta que las computadoras pueden analizar rápidamente millones de documentos, completando de manera económica una tarea que solía demandar ejércitos de abogados y asistentes. En este caso, entonces, el progreso tecnológico esta en realidad reduciendo la demanda por trabajadores altamente capacitados.

Y la investigación legal no es un ejemplo aislado. Como destaca el artículo, el software también ha estado reemplazando Ingenieros en tareas tales como diseño de chips. Desde un punto de vista más general, la idea de que la tecnología moderna elimina solo trabajos menores, que los trabajadores bien formados son claros ganadores, puede dominar las discusiones comunes, pero en realidad está pasada de moda hace décadas.

El hecho es que desde alrededor de 1990 el mercado laboral de los E.E.U.U. se ha caracterizado no por un incremento general en la demanda de capacitación, si no por un “ahuecado”: tanto los empleos con altos salarios como los que tienen bajos salarios han crecido rápidamente, pero los empleos con salarios medios – aquellos con los cuales contamos para respaldar a una clase media fuerte – se han quedado atrás. Y el agujero en el medio se ha estado agrandando: muchos de los trabajos con salarios elevados que crecieron rápidamente en los ’90 han visto un crecimiento mucho más lento en los últimos tiempos, incluso en presencia de un crecimiento acelerado del empleo con bajos salarios.

Qué está sucediendo? La creencia de que la educación se está convirtiendo en algo cada vez más importante descansa en la noción de que los avances en la tecnología aumentan las oportunidades laborales para aquellos que trabajan con la información – en pocas palabras, que las computadoras ayudan a aquellos que trabajan con sus mentes mientras que perjudica a aquellos que lo hacen con sus manos.

Algunos años atrás, sin embargo, los economistas David Autor, Frank Levy y Richard Murnane argumentaron que esta forma de encarar el tema estaba equivocada. Las computadoras, en su opinión, son excelentes en tareas rutinarias, “las tareas cognitivas y manuales que pueden completarse siguiendo reglas explicitadas.” Por lo tanto, cualquier tarea de rutina – una categoría que incluye muchos trabajos profesionales y no manuales – está en la línea de fuego. De manera opuesta, los trabajos que no pueden llevarse a cabo siguiendo reglas explícitas – una categoría que incluye muchas clases de trabajos manuales, desde los que manejan un camión hasta los porteros – van a tender a crecer incluso en épocas de progreso tecnológico.

Y aquí está el tema: la mayoría de los trabajos manuales que todavía se llevan a cabo en nuestra economía parecen ser de la clase que es difícil de automatizar. De manera notable, con una caída en los EE.UU. de cerca del 6 % del empleo en el sector de trabajadores de manufacturas, no hay muchos trabajos que puedan perderse en las líneas de ensamblado. Mientras tanto, muchos empleos profesionales llevados adelante por trabajadores con formación y relativamente bien pagados pueden ser computarizados pronto. Los Roombas (NT: robots que limpian) son lindos, pero los porteros robotizados todavía están lejos; la investigación legal computarizada y el diagnóstico médico asistido por computadoras ya están aquí.

Y después está la globalización. En una época, solo los trabajadores en manufacturas tenían que preocuparse con la competición de ultramar, pero la combinación de computadoras y telecomunicaciones ha hecho posible ofrecer muchos servicios a larga distancia. Y la investigación hecha por mis colegas en Princeton, Alain Blinder y Alan Krueger, sugiere que los empleos muy bien remunerados desempeñados por trabajadores altamente capacitados son, comparados, más “tercerizables” que los trabajos hechos con menores salarios y hechos por trabajadores menos formados. Si tienen razón, el creciente intercambio internacional en servicios va a profundizar aún más el ahuecamiento del mercado laboral norteamericano.

Así que, ¿qué quiere decir todo esto a la luz de nuestras políticas?

Sí, necesitamos solucionar la educación norteamericana. En particular, las inequidades que los norteamericanos enfrentan desde el comienzo – niños inteligentes de familias pobres tienen menos probabilidades de terminar la escuela que niños menos dotados de familias con más recursos – no son solo una atrocidad; sino que representan un enorme desperdicio del potencial humano de la nación.
Pero hay cosas que la educación no puede hacer. En particular, la noción de que poniendo más niños en la escuela, puede reestablecer la sociedad de clase media que solíamos tener es solo una expresión de deseos. Ya no es cierto que tener un título universitario garantiza que Ud. vaya a conseguir un buen trabajo, y se vuelve menos cierto con cada década que pasa.

Así que si queremos una sociedad con prosperidad compartida por todos, la educación no es la respuesta – vamos a tener que construir esa sociedad de manera directa. Necesitamos recuperar el poder de negociación que los trabajadores han perdido durante los últimos 30 años, de manera que el trabajador común al igual que los superestrellas tengan el poder de negociar buenos salarios. Necesitamos garantizar lo básico, sobre todo cobertura de salud para cada ciudadano.

Lo que no podemos hacer es llegar adonde queremos ir solo dándole a los trabajadores títulos universitarios, lo cual puede no ser otra cosa más que pasajes a empleos que no existen o que no pagan salarios de clase media.

Fuente:
http://www.nytimes.com

lunes, 7 de marzo de 2011

Los problemas de patentes amenazan a las compañías farmacéuticas

Por Duff Wilson - 07/03/11
Traducción de Claudio Pairoba

A fines de Noviembre, Pfizer se prepara para perder U$S 10.000 millones de dólares en ganancias anuales cuando expire la patente de su exitosa droga contra el colesterol Lipitor y los genéricos mas baratos comiencen a apoderarse de las enormes ventas de la compañía.

La pérdida se posiciona como un desafío intimidatorio para Pfizer, un desafío que comparten casi todas las empresas farmacéuticas. Solo en este año debido a la expiración de patentes, la industria de medicamentos perderá control sobre más de 10 megamedicamentos cuyas ventas combinadas anuales se han acercado a los U$S 50.000 millones.

Este es un revés aleccionador para una industria que solo unos pocos años atrás era el sector de negocios con mayores ganancias a nivel mundial pero que ahora se encuentra bajo presión para reinventarse y despojarse de su dependencia de las drogas exitosas. Y pone en el tapete a los problemas que ahora enfrentan las compañías farmacéuticas: una falta de grandes avances en drogas y descubrimientos; presión de las aseguradoras y del gobierno para bajar los precios, vigilancia regulatoria e investigaciones gubernamentales, y miles de despidos en sus sectores de investigación y desarrollo.

Morgan Stanley recientemente le bajó la calificación al grupo completo de compañías farmacéuticas multinacionales con sede en Europa – AstraZeneca, Bayer, GlaxoSmithKline, Novartis, Novo Nordisk y Roche – en un informe titulado “Un avalancha de riesgos? Bajando con cautela”. El análisis informaba “El ambiente de operaciones de las farmacéuticas está empeorando rápidamente”.

Las mismas preocupaciones se aplican a las grandes compañías en los EE.UU. Todas están lidiando con fallas de investigación y haciendo malabares para reemplazar a sus gallinas de los huevos de oro, como la apuesta multimillonaria de Pfizer en una droga reemplazo de su Lipitor, para bajar el colesterol, la cual falló de manera estrepitosa en los ensayos clínicos. Las compañías farmacéuticas eliminaron 53.000 empleos el año pasado y 61.000 en 2009, mucho más que la mayoría de los otros sectores, de acuerdo a la empresa de recolocación Challenger, Gray y Christmas.

“Esta es una época de pánico, esto es realmente época de pánico para la industria,” dijo Kenneth I. Kaitin, director del Centro para el Estudio del Desarrollo de Drogas en la Universidad de Tufts, en Medford, Massachusets. “No creo que haya una compañía que no se de cuenta que no tienen suficientes productos en proyecto o en carpeta, que no tienen suficientes ganancias para mantener su investigación y desarrollo.”

Mientras a lo largo y lo ancho de la industria el gasto en investigación y desarrollo se ha casi duplicado a U$S 45.000 millones anuales durante la última década, la Food and Drug Administration ha aprobado cada vez menos medicamentos. Pfizer y Eli Lilly han tenido grandes inconvenientes el último año en los experimentos para una lo que alguna vez fue una prometedora droga contra el Alzheimer. Merck dejó de hacer pruebas con su adquisición más importante derivada de su fusión con Schering Plough, un anticoagulante que causaba peligrosas cantidades de sangrado.

Los ejecutivos de las compañías farmacéuticas han comenzado a enfocarse en la necesidad de reinventarse.

“Necesitamos arreglar nuestro núcleo innovador,” dijo el nuevo presidente de Pfizer, Ian C. Read en una reciente entrevista. Para hacer eso, la empresa necesita reenfocarse en nichos más pequeños en los temas cáncer, inflamación, neurociencias y genéricos de marca – y cortar cerca de un 30 % de su propia investigación y desarrollo en los próximos dos años mientras sus científicos trabajan solo en los proyectos con mayores posibilidades de ganancias.

Los consumidores deberían ver un beneficio financiero a medida que los genéricos más económicos reemplacen a las drogas de elite más caras, pero pueden sufrir a largo plazo si las compañías reducen la investigación y no producen nuevas drogas que satisfagan las necesidades del público.

“Uno no necesita despedir a Investigación y Desarrollo si es solamente un ciclo,” dice Erik Gordon, un Profesor Asistente de Clínica en la Escuela de Negocios de la Universidad de Michigan quien sigue la evolución de la industria farmacéutica. “Eso mata al progreso.”

El gobierno federal también está preocupado por el ritmo lento con el que aparecen las nuevas drogas provenientes de la industria farmacéutica. Francis S. Collins, director de los National Institutes of Health, recientemente propuso la creación en la agencia de un centro de desarrollo de drogas que costaría miles de millones de dólares.

“Parece que tenemos un problema sistémico,” dijo el Dr. Collins, agregando que los esfuerzos de investigación del gobierno se enfocaban a alimentar al sector privado, no a competir con él.

Read de Pfizer expresa que los nuevos productos pueden reemplazar a algunas pero no a todas las pérdidas de patentes.

“El huracán está aterrinzando”, manifestó Jeremy Batstone-Carr, un analista con la  Charles Stanley Securities, pero agregó que Pfizer está entre varias compañías farmacéuticas que les dan consuelo a sus accionistas al devolver dinero mediante la recompra de acciones y dividendos. El patrimonio más preciado de Pfizer, dijo, son sus U$S 20.000 millones en efectivo. Desde el 2000, los precios de las acciones de Pfizer y Merck cayeron cerca de un 60 %, mientras que el Dow subió un 19 %.

Varios de los titanes de la industria farmacéutica han comprado competidores con nuevos productos para cubrir sus propios agujeros de ventas, básicamente pagando en efectivo a cambio de ganancias futuras a medida que su propia investigación flaqueaba. En los últimos dos años, Pfizer pagó U$S 68.000 millones por Wyeth, Merck pagó U$S 41.000 por Schering-Plough, Roche pagó U$S 46.000 por Genentech y Sanofi-Aventis pagó U$S 20.000 por Genzyme.

Henry G. Grabowski, un profesor de Economía y Director del Programa en Economía Farmacéutica de la Universidad de Duke, asemejó las recientes megafusiones farmacéuticas a aquellas que ocurrieron en las industrias bancarias y de telecomunicaciones cuando fueron golpeadas por los cimbronazos financieros de los ‘90.

Pero advirtió que esta ola podría no asegurar desarrollos significativos en la investigación a largo plazo.

“Nunca se ha demostrado que estas enormes fusiones horizontales sean buenas para la producción de Investigación y Desarrollo,” dijo Grabowski. “Prefiero que me demuestren que tienen reales avances más allá de algunas ventajas a corto plazo que después desaparecen.”

A medida que se mueven más allá del modelo de éxito, las compañías están refinando sus enfoques hacia los medicamentos personalizados y formando más sociedades. Usando tests genéticos o de otros tipos, el plan es vender nuevas drogas no a millones y millones de personas, sino a aquellos que se beneficiarían de manera más evidente.

Aún, la industria enfrenta presión intensa de la competencia genérica y ha probado cada táctica para alejarla, incluyendo versiones de liberación prolongada de los mismos medicamentos así como nuevas píldoras que combinan dos ingredientes. Pero un 75 % de todas las recetas en los EE.UU. ahora son drogas genéricas de baja ganancia y bajo precio.

Al mismo tiempo, los programas de salud del gobierno les están pidiendo a las compañías farmacéuticas que reduzcan sus precios y mejoren los términos de reembolso para sus pastillas más rentables.

Esto se ubica en la misma línea que prácticas similares en Europa, donde Alemania y Gran Bretaña, entre otros países, están poniendo más presión para tener medicamentos con precios más bajos.

“Europa es un lugar horrible para hacer negocios en la actualidad y lo será dentro de 5 años,” dijo en una entrevista Christopher A. Viehbacher, Director Ejecutivo del gigante francés Sanofi-Aventis.

En los EE.UU., Viehbacher expresó que las drogas genéricas se estaban apoderando del mercado del cuidado primario dejando el mayor potencial de crecimiento en los mercados especiales y en los países emergentes como China, Brasil e Indonesia.
Incluso en esos mercados, los sistemas de salud no van a ser los centros de ganancias que han sido los EE.UU. China, que aparece este año como el tercer mercado farmacéutico más grande detrás de los EE.UU. y Japón, planea reducir el precio de los medicamentos en un 40 % en promedio.

La industria de los medicamentos ha venido diciendo por mucho tiempo que los norteamericanos estimularon el motor de la investigación, gastando mucho más en medicamentos per capita que cualquier otro país, y pagando los precios más elevados por medicamentos recetados.

Los lobistas de la industria farmacéutica han atacado propuestas de los Demócratas para adaptar los precios a los de países como Canadá o de permitir que Medicare negocie los precios de manera directa. La industria, al respaldar la revisión del cuidado de la salud impulsada por el Presidente Obama, limitó su contribución a U$S 90.000 millones durante un período de 10 años a cambio de la promesa de llegar hasta los 32 millones de nuevos clientes asegurados a partir del 2014.

La nueva ley también contiene una gran amenaza para las ganancias de la industria farmacéutica en una sección poco conocida que permitiría que los precios sean fijados de manera centralizada. A partir del 2015, un panel independiente designado por el presidente podría bajar los precios de manera generalizada en Medicare a menos que el Congreso lo vetara cada año. Medicare paga más del 20 % de las facturas por venta de medicamentos del país.

La industria también se ha visto desestabilizada por los numerosos casos de fraude y sobornos por conductas que han sumado miles de millones a los pagos por medicamentos en el país, según investigadores federales. Las penalizaciones han sido duras y los acuerdos extremadamente caros.

En el 2009, Pfizer pagó la multa criminal más elevada en la historia de la nación como parte de un acuerdo por U$S 2.300 millones al promocionar drogas para usos no aprobados. Algunos analistas indican que casos por fraude y sobornos todavía más importantes van a aparecer. Las compañías farmacéuticas están respondiendo con entrenamientos de ventas extremadamente cuidadosos y su intención de disminuir el entusiasmo por vender. Pero el cambio en cultura corporativa podría costarles: hay documentos internos que muestran que algunas de las compañías han tenido ganancias espectaculares buscando aprobación federal para una nueva droga con un uso restringido y luego promocionarla con usos más amplios.

Se planean otros cambios que sin duda afectarán el resultado final. Estas incluyen crecientes restricciones en los regalos, tarifas y viajes para influenciar a los médicos para que usen sus productos, límites en la “escritura fantasma” de artículos médicos en revistas y un requerimiento para una mayor exposición de los estudios con resultados negativos. A medida que se aleja la era dorada de los medicamentos exitosos, también lo hacen algunos de los excesos en marketing de las dos décadas pasadas – las tácticas que ayudaron a amasar inmensas ganancias.

Algunos analistas ven en la declinación de este sector una oportunidad para invertir. Dicen que las acciones de las farmacéuticas son buenas compras debido a los bajos índices precio-ganancia, los cuales típicamente reflejan la declinación de la industria o el pesimismo de los inversores, y los altos rendimientos en dividendos con un promedio superior al 4 % anual.

Fuente:
http://www.nytimes.com/2011/03/07/business/07drug.html?_r=1&hp=&adxnnl=1&adxnnlx=1299470410-nR1vrCAENI4eeLhyAdNTVg

miércoles, 2 de marzo de 2011

La falta de reconocimiento aleja a los científicos de la divulgación

Por Ángel Díaz

Las nuevas generaciones consideran que explicar su trabajo a la sociedad forma parte de sus obligaciones profesionales, pero muchas veces no encuentran la forma de hacerlo. En los países europeos donde más se innova se generan menos recelos entre los investigadores y los medios de comunicación.


En los últimos años, la presencia de la ciencia en los medios de comunicación, ya sea en forma de divulgación o de debate político, ha aumentado considerablemente, pero aún está lejos de alcanzar el peso que se le concede habitualmente en nuestras vidas, en la transformación de la sociedad y la economía.

La brecha que separa a los investigadores del público sigue abierta, y hay quien opina que lo estará hasta que se pueda hablar de ciencia como se habla de otras áreas que también requieren de un conocimiento muy específico, como son el deporte, la economía o el arte moderno. Quizás el problema estribe en que la ciencia no es sólo un lenguaje, sino también -y sobre todo- una forma de ver el mundo.

Un estudio de la Comisión Europea, en el que participaron investigadores de todas las edades y casi todas las nacionalidades del continente, reveló que todos los profesionales de la ciencia se muestran unánimes en que sería deseable «una relación continua y más profunda con los medios, para que el público se dé cuenta de que la ciencia se basa en adquirir nuevos conocimientos y satisfacer la curiosidad, no sólo de invenciones y nuevos productos».

«Una cosa es el conocimiento científico y otra cosa es el pensamiento científico», indica Eudald Carbonell, profesor de la Universidad Rovira i Virgili y codirector del yacimiento de Atapuerca.

«No sólo hay que contar que se ha descubierto algo, sino también explicar por qué es importante, a dónde te lleva ese conocimiento», aclara el antropólogo, quien no cree tanto en la idea de divulgación -por ser «banal»- como en la necesidad de integrar el concepto de ciencia en el sustrato mismo de la sociedad. «Cuando rompamos la barrera entre conocimiento y pensamiento, la ciencia será como el fútbol, formará parte de nuestra cultura», añade.

Javier Armentia, astrofísico y director del Planetario de Pamplona, explica que «el reto está en pasar de la información a la reflexión». Pero, ¿por qué es tan difícil dar este paso? «La información económica requiere mucho más esfuerzo, y los toros también tienen su propio lenguaje», comenta Armentia. «El problema es que se ha claudicado, se dejado la ciencia como algo que hacen los científicos».

Lo curioso es que, en contra del mito del científico en su torre de marfil, muchos jóvenes investigadores no se sienten cómodos con este estatus. «La gente es consciente de la importancia de la ciencia, incluso la admira, pero pone una distancia», lamenta Santiago Rello Varona, del Instituto Gustave Roussy, en Francia.

El mencionado estudio europeo, publicado en diciembre de 2007, también señalaba una diferencia fundamental entre los investigadores más veteranos y los más jóvenes, éstos últimos mucho más acostumbrados, y también más proclives, a relacionarse con los medios. Pero el esfuerzo por comunicar no siempre se ve recompensado: escribir un ensayo divulgativo, mantener un 'blog' o colaborar con la prensa no puntúa oficialmente en la carrera del investigador. Y, aunque se quiera hacer, no siempre es fácil saber qué palos se han de tocar.

«La falta de una financiación específica para comunicación, la falta de tiempo y las dificultades de encontrar un lenguaje sencillo para comunicar clara y efectivamente a audiencias más amplias son subrayados como los mayores obstáculos desde la comunidad científica», concluía el estudio de la Comisión Europea.

«Hay científicos que no tienen interés en comunicar porque piensan que a la sociedad no le interesa, y hay otros que no encuentran la manera de realizar esa comunicación», resume Carbonell.

Además, la vorágine de publicaciones, tareas de docencia y obligaciones burocráticas varias no deja mucho tiempo para una actividad considerada secundaria. Todo lo cual redunda en que la sociedad perciba el saber científico como una serie de nociones más o menos lustrosas, y no como el modo de discurrir y asomarse al mundo en el que quieren verse reflejados los científicos. «En nuestro país, parece que el documental es sinónimo de ñúes cruzando el río para llegar a las llanuras bajo el acecho de lobos y cocodrilos», ironiza Rello Varona.

En todo caso, la divulgación no es sólo una obligación del científico hacia la sociedad; aprender a comunicar es también, en cierto modo, aprender a organizar las propias ideas, lo cual conecta con un concepto fundamental para Carbonell: «Los científicos 'senior', que llevamos toda la vida investigando, tenemos que hacer este aprendizaje, debemos convertir en pensamiento lo que nuestra experiencia ha acumulado como conocimiento».

Otra de las tesis que reflejaba el citado estudio es que en los nuevos países miembros ('UE 12)', la desconfianza de los científicos hacia los medios, por miedo a que se politicen o banalicen los temas, es mayor que en la Europa de los 15; lo cual da una idea de que, cuanto más importante es la ciencia en un país, mejor se comunica y menor es la brecha entre sociedad y laboratorio.

En España, tal y como recordaba la ministra de Ciencia e Innovación, Cristina Garmendia, hemos experimentado en los últimos años el segundo crecimiento más rápido del mundo, sólo por detrás de China, y ya somos la novena potencia científica mundial. Sin embargo, es evidente que aún hay desajustes, como muestra el hecho de que nuestras universidades están muy lejos de ocupar esas posiciones. En comunicación de la ciencia, como en todo lo demás, ocurre que hemos mejorado muy deprisa pero aún nos queda mucho por aprender.

«Muchos científicos miraban a los que sí divulgaban como una especie de 'vedettes' que sólo querían lucirse», comenta Armentia, quien reconoce, sin embargo, que «las nuevas generaciones, tanto de comunicadores como de investigadores, creen que divulgar la ciencia es parte de su trabajo».

Sin embargo, aún se acusa en nuestro país cierta dependencia del mundo anglosajón en la elección de informaciones científicas, lo cual no sería tan problemático si no fuera porque se pierden algunos fundamentos básicos de la comunicación: «Una mayor presencia española daría una sensación de cercanía, se podría enmarcar la divulgación en un contexto humano», señala Armentia. Esta lejanía se acentúa, a menudo, en el caso de la investigación universitaria: «Es más pausada, menos espectacular y más analítica, y por eso le cuesta más llegar al gran público», argumenta Rello Varona.

Fuente:
www.madrimasd.org/

Entradas populares