martes, 29 de marzo de 2011

Las normas japonesas para las plantas nucleares dependían de la vieja ciencia


De acuerdo a este artículo, el gobierno japonés y las agencias encargadas se basaron en antiguos informes desestimando investigaciones más recientes al momento de crear las condiciones de seguridad para las plantas nucleares.
Las consecuencias del tsunami en Japón se prolongarán por largo tiempo.

Por Norimitsu Onishi y James Glanz
Traducción de Claudio Pairoba
26/03/2011

TOKIO – En el país que le dio al mundo la palabra tsunami, el establishment nuclear japonés en su mayoría no tuvo en cuenta la fuerza destructiva potencial de las paredes de agua. La palabra ni siquiera aparece en las pautas del gobierno hasta el 2006, décadas después de que las plantas – incluyendo las instalaciones de Fukushima Daiichi con las que los bomberos todavía están luchando para poder controlar – comenzaran a poblar las costas japonesas.

La falta de atención puede explicar como, en un país que es una isla rodeada por placas tectónicas en choque que generalmente producen tsunamis, las protecciones fueron tan trágicamente minúsculas comparadas con el tsunami de casi 14 metros que asoló la planta de Fukushima el 11 de Marzo. Los rompeolas mar adentro, diseñados para  proteger contra tifones pero no contra tsunamis, sucumbieron rápidamente como primera línea de defensa. La ola creció hasta llegar a ser casi 3 veces más alta que el risco sobre el cual la planta había sido construída.

El gobierno japonés y los directivos de las empresas públicas han dicho repetidas veces que los ingenieros nunca podrían haber anticipado un terremoto de magnitud 9.0 – el más grande en la historia japonesa – que hizo que el fondo del mar temblara originando el enorme tsunami. Pero aún así, los sismólogos y los expertos en tsunamis expresan que de acuerdo a información fácilmente accesible, un terremoto con una magnitud tan baja como 7.5 – sumamente común en el anillo del Pacífico – podría haber creado un tsunami lo suficientemente grande para sobrepasar el risco de Fukushima.

Después de que un grupo asesor emitiera recomendaciones no vinculantes en el 2002, la Compañía de Energía Eléctrica de Tokio, la dueña de la planta y la empresa más grande de Japón, elevó el máximo tsunami esperable en Fukushima Daiichi a alrededor de 5 metros – considerablemente superior que el risco de 3,90 metros. Sin embargo, la compañía pareció responder solo elevando el nivel de una bomba eléctrica cercana a la costa en 20 cm, presumiblemente para protegerla de los altos niveles de agua, de acuerdo a los inspectores.

“Sólo podemos trabajar sobre precedentes, y no había precedentes”, manifestó Tsuneo Futami, un ex Ingeniero Nuclear de Tokio quien fuera director de Fukushima Daiichi a finales de los 90. “Cuando dirigí la planta, la idea de un tsunami nunca se me cruzó por la cabeza.”
La intensidad con la cual el terremoto sacudió la tierra en Fukushima también superó los criterios usados en el diseño de la planta, aunque por un factor significativamente menor que el tsunami, de acuerdo a información suministrada por Tokyo Electric al Foro Industrial de Energía Atómica de Japón, un grupo profesional. Basado en lo que se sabe ahora, el tsunami comenzó la crisis nuclear inundando los generadores de refuerzo necesarios para hacer funcionar el sistema de enfriamiento del reactor.

Japón es conocido por su gran experiencia técnica. A pesar de esto y por décadas los altos estamentos japoneses e incluso partes de su establishment de ingenieros se aferraron a antiguos preceptos científicos para proteger plantas nucleares, apoyándose mayormente en registros de terremotos y tsunamis, sin tener en cuenta los avances en sismología y evaluación de riesgos existentes desde la década del 70.
Para algunos expertos, la subvaloración de la amenaza del tsunami en Fukushima es frustrante y nos recuerda al terremoto – esta vez sin tsunami – en Julio del 2007 que golpeó Kashiwazaki, una planta eléctrica perteneciente a Tokyo Electric en la costa oeste de Japón. La tierra en Kashiwazaki se sacudió dos veces y media más que la máxima intensidad estimada cuando se diseño la planta, haciendo necesarias mejoras en la misma.

“Tuvieron años para prepararse hasta ese momento, después de Kashiwazaki, y estoy viendo la misma cosa en Fukushima,” dijo Peter Yanev, un experto en evaluación de riesgo sísmico con sede en California, quien ha estudiado a Fukushima para la Comisión Regulatoria Nuclear de los EE.UU. y para el Departamento de Energía.

No hay dudas de que cuando se diseñó Fukushima la sismología y su intersección con la Ingeniería Estructural de las plantas nucleares estaba en sus comienzos, dijo Hiroyuki Aoyama de 78 años, un experto en la resistencia de plantas nucleares a los terremotos quien ha servido en grupos de asesoría para el gobierno japonés. Los ingenieros aplicaron muchas conjeturas, adoptando como estándar que las estructuras dentro de las plantas nucleares deberían tener 3 veces la resistencia a terremotos que tienen los edificios comunes.
“No había sustento para elegir 3 veces”, expresó Aoyama, un profesor emérito de Ingeniería Estructural de la Universidad de Tokio. “El objetivo era vago”.

Evolución de los diseños
Cuando los Ingenieros japoneses comenzaron a diseñar su primera planta nuclear más de 4 décadas atrás, buscaron indicios en el pasado sobre cómo proteger su inversión en la energía del futuro. Los archivos oficiales, algunos de ellos centenarios, contenían información sobre la manera en que los tsunamis habían inundado pueblos costeros, permitiéndoles a los ingenieros estimar su altura.
De manera que se construyeron las paredes más elevadas que los más altos tsunamis registrados. En Fukushima Daiichi, la cuarta planta más antigua del Japón, los directivos de la Tokyo Electric usaron un tsunami contemporáneo – una ola de 3,15 metros de altura causada por un terremoto de magnitud 9.5 ocurrido en Chile en 1960 – como punto de referencia. El risco de 3,90 metros sobre el cual se construyó la planta, iba a servir como una pared de contención natural, de acuerdo a Masaru Kobayashi, un experto en resistencia a terremotos de la Agencia de Seguridad Industrial y Nuclear, el ente regulador japonés.
Los rompeolas de 5,40 metros fueron construídos como parte de la estrategia anti-tsunami de la compañía, dijo Jun Oshima, una vocera para la Tokyo Electric. Pero los inspectores manifestaron que los rompeolas – fundamentalmente destinada a proteger a los botes – ofrecían cierta resistencia contra los tifones, pero no los tsunamis, expresó Kobayashi.

A través de las décadas, el estar preparado ante los tsunamis nunca fue una prioridad para las compañías de energía japonesas o para los reguladores nucleares. Tal vez se confiaron, según los expertos, en el hecho de que ningún tsunami había golpeado a una planta nuclear hasta hace dos semanas atrás. Aunque los simulacros de tsunami ofrecieron nuevas formas de determinar los riesgos de los mismos, los operadores de las plantas hicieron pocos cambios en sus vetustas construcciones, y los reguladores nucleares no los presionaron.

Los ingenieros adoptaron un enfoque similar con el tema los terremotos. Cuando llegó el momento de diseñar la planta de Fukushima, los informes oficiales que datan del 1600 mostraron que los terremotos más fuertes mar adentro de lo que hoy sería la Prefectura de Fukushima eran de magnitud 7.0 a 8.0, manifestó Kobayashi.

“Se lo dejamos a los expertos,”dijo Masatoshi Toyoda, un vicepresidente retirado de la Tokyo Electric quien supervisó la construcción de la planta. Agregó que “buscaron información en viejos documentos acerca de cuántas lápidas se habían caído y cuestiones similares.”
 Con el tiempo, los expertos de los comités gubernamentales comenzaron a presionar para tener normas de construcción más estrictas, y para 1981, las normas incluían referencias a los terremotos pero no a los tsunamis, de acuerdo a la Agencia de Seguridad Industrial y Nuclear. Esa presión creció de manera exponencial luego del devastado terremoto de Kobe en 1995, expresó Kenji Sumita, quien ocupó un alto cargo en la Comisión de Seguridad Nuclear del gobierno japonés a fines de los 90.

Sumita manifestó que las compañías de energía, las cuales estaban enfocadas en completar la construcción de una docena de reactores, se resistieron a adoptar estándares más estrictos, y no enviaron representantes a las reuniones sobre ese tema en la Comisión de Seguridad Nuclear.
“Otros enviaron gente de forma inmediata”, dijo Sumita, refiriéndose al ámbito académico y a expertos de la industria de la construcción. “Pero las compañías de energía se movieron con lentitud y no vinieron.”
Mientras tanto, las ciencias de la sismología y la evaluación de riesgos avanzaron en todo el mundo. Aunque la Comisión Regulatoria Nuclear de los EE.UU. ha sido víctima de severas críticas por no llevar adelante la adopción de estas nuevas técnicas, la agencia usó muchas de ellas en nuevas revisiones hechas planta por planta, dijo Greg S. Hardy, un ingeniero estructural de Simpson Gumpertz y Heger quien se especializa en el diseño de plantas nucleares y riesgo sísmico.

Cualquiera sean las razones – culturales, históricas o simplemente financieras – los ingenieros japoneses que trabajaban en plantas nucleares continuaron prediciendo lo que ellos creyeron eran terremotos extremos basados en sus informes.
Aquellos métodos, sin embargo, no tuvieron en cuenta serias incertidumbres como fallas que no habían sido descubiertas o terremotos que eran gigantescos aunque raros, dijo Hardy, quien visitó Kashiwazaki después del movimiento del 2007 como parte de un estudio patrocinado por el Instituto de Investigación en Energía Eléctrica.
“Los japoneses se quedaron atrás,” dijo Hardy. “Una vez que ellos proclamaron que este era el terremoto máximo, tuvieron dificultades reevaluando eso a medida que ingresaban nuevos datos.”
Esta aproximación japonesa, a la cual se la conoce en el ambiente como “determinista”- en oposición a “probabilística”, o que considera lo desconocido – de alguna manera pegó, dijo Noboru Nakao, un consultor quien se desempeño como ingeniero nuclear en Hitachi por 40 años y fue presidente del centro de entrenamiento japonés para operadores de reactores a vapor.

“Las reglas de seguridad japonesas son generalmente deterministas ya que los métodos probabilísticos son muy difíciles,” expresó Nakaom agregando que “los EE.UU. tienen mucho más métodos de evaluación de riesgos.”
La ciencia de los tsunamis también avanzó, con métodos mucho mejores para medir sus tamaños, estadísticas vastamente expandidas a medida que hubo más ocurrencias y cálculos de computadoras que ayudan a predecir qué clases de tsunamis son producidos por terremotos de distintos tamaños. Dos borradores de trabajos de investigación independientes desarrollados por expertos en tsunamis – Eric Geist de la Inspección Geológica de los EE.UU. y Costas Synolakis, profesor de Ingeniería Civil de la Universidad del Sur de California – indican que los terremotos de magnitud 7.5 pueden crear tsunamis suficientemente grandes para pasar por encima del risco de 3,90 metros que protege a la planta de Fukushima.
Synolakis consideró a la subestimación del riesgo de tsunami por parte de Japón “una cascada de errores estúpidos que condujeron al desastre” y agregó que la información relevante era prácticamente imposible de soslayar por cualquiera que trabaje en el tema.

Subestimando los riesgos
La primera referencia clara a los tsunamis apareció en los nuevos estándares para las plantas nucleares de Japón emitidos en 2006.
“Las normas del 2006 se referían a los tsunamis como un fenómeno que acompañaba a los terremotos, y urgía a las compañías de energía a que pensaran en eso,” manifestó Aoyama, el ingeniero estructural experto.
El riesgo había recibido algo de atención en 2002, cuando un grupo consejero del gobierno, la Sociedad Japonesa de Ingenieros Civiles, publicó normas recomendadas para tsunamis en referencia a los operadores nucleares.

Un grupo de estudio de la sociedad, incluyendo a profesores y representantes de empresas como Tokyo Electric, evaluaron información de tsunamis anteriores así como nuevas investigaciones acerca de líneas de falla y geografía local con el objetivo de elaborar las normativas, de acuerdo a un miembro del grupo de estudio quien habló bajo la condición de anonimato, citando lo delicado de la situación.
El mismo grupo había estado discutiendo recientemente las revisiones a esos estándares, de acuerdo a este miembro. Durante la última reunión del grupo, llevada a cabo una semana antes del último tsunami, los investigadores debatieron acerca de la utilidad de las simulaciones tridimensionales para predecir el potencial daño que los tsunamis podrían causar en plantas nucleares, de acuerdo a las minutas de esas reuniones. “Tomamos en cuenta más que solo datos del pasado,” indicó el miembro. “Tratamos de predecir. Nuestro objetivo fue reducir la incertidumbre.”

Quizás la observación más triste proveniente de los científicos fuera del Japón es que, incluso a través de la estrecha lente de los tsunamis pasados, la posibilidad de que las medidas de seguridad anti tsunami fueran superadas tendría que haber sido detectada. En 1993 un movimiento de magnitud 7.8 produjo tsunamis con alturas superiores a los 9 metros mar adentro de la costa occidental del Japón, con resultados ampliamente devastadores, de acuerdo con estudios científicos e informes de ese momento.
En la isla de Okushiri, una de las más afectadas, “la mayoría de las áreas pobladas que fueron severamente golpeadas por el tsunami estaban rodeadas por paredes contra los mismos” de hasta 4 metros y medio de alto, de acuerdo a un informe escrito por Yanev. Estas paredes eran entre 30 y 60 cm más altas que el risco de Fukushima.
Pero como en un presagio de lo que ocurriría 18 años más tarde, las paredes de Okushiri, Yanev, el experto en evaluación de riesgo sísmico, escribió, “pueden haber moderado los efectos generales del tsunami pero fueron ineficientes para las olas más grandes.”

Incluso el pasado distante estaba dando nueva información que podría haber servido como advertencia renovada.
Dos décadas después de que Fukushima Daiichi comenzara a funcionar, los investigadores que estudiaron minuciosamente antiguos reportes estimaron que un terremoto conocido como Jogan había producido un tsunami que penetró cerca de un kilómetro y medio en una isla de un área al norte de la planta. Ese tsunami se produjo en el 869.

Norimitsu Onishi informó desde Tokio y James Glanz desde Nueva York. Ken Belson e Hiroko Tabuchi contribuyeron informando desde Tokio.

Fuente:
www.nytimes.com

sábado, 19 de marzo de 2011

Clonación: desde caballos de polo a gatos que no dan alergia

Se presentó en sociedad Ñandubay, primer equino nacido con esta técnica.  


06/03/11
Por Matías Longoni

Ñandubay Bicentenario nació el 4 de agosto del año pasado y acaba de cumplir siete meses, una edad suficiente como para salir a dar su primer paseo. El potrillo eligió Expoagro para esa salida. Posó junto a su madre durante los 4o días de exposición y sorprendió a muchos que se enteraban quién era apenas leían el cartel fijado a pocos metros de su corral: “primer equino clonado viable de Latinoamérica”.

Ñandubay es, por cierto, el primer caballo que nació en esta parte del mundo mediante la técnica de clonación. Hubo otro antecedente en 2008, pero el potrillo no llegó a vivir ni medio día. De allí lo de “viable”. Ñandubay luce sano y fuerte. Eso es lo que quisieron mostrar en Expoagro sus creadores, que trabajan bajo el paraguas de un acuerdo entre la Facultad de Agronomía de la UBA (FAUBA), el laboratorio Bio Sidus y la cabaña Don Antonio. Ñandubay duerme todas las noches en ese lugar, que queda sobre la ruta 9, a escasos kilómetros de esta muestra.

Ñandubay sorprende, pero no llama la atención, porque no le sobran patas ni le falta un ojo; luce como un potrillo común. Es hijo de un padrillo de la raza criolla (que donó para el experimento una célula de su piel), de una yegua anónima (de la que tomaron un óvulo no fecundado), y de otra yegua receptora que albergó el embrión dentro de su vientre y es la que hoy lo cuida y protege.

Pero Ñandubay también es hijo de la ciencia, que dio otra muestra de que la Argentina también puede picar en punta en materia de clonación. A nivel global no es muy lejana la primera clonación de un equino. Sucedió en 2003, en Italia, 6 años después del nacimiento del primer animal clonado del planeta, la Oveja Dolly .
Lo que sorprende de Ñandubay es que quienes lograron “fabricarlo” son jóvenes argentinos de menos de 30 años . Javier Jarazo y Andrés Gambini son veterinarios recién recibidos de diferentes universidades públicas, y Florencia Karlanian es estudiante. El equipo estuvo apoyado por la gente de Bio Sidus y cuenta con la coordinación del titular de la Cátedra de Biotecnología Animal de la FAUBA e investigador del Conicet, Daniel Salamone. Este hombre es quien propone cada día un nuevo desafío a sus discípulos: ahora pretende usar la clonación para obtener un gato que no provoque alergia.

Los jóvenes científicos, con el nacimiento de Ñandubay, pusieron el foco en mejorar las técnicas de la clonación animal. Pero saben que, en un futuro, esta técnica podrá ser de usada para “repetir” caballos que ya no pueden reproducirse pero se destacan en ciertos deportes, o animales que murieron y tenían grandes cualidades. Esta técnica choca por ahora con algunas resistencias, como la de los criadores de Pura Sangre de Carrera, que solo permiten la reproducción natural de los animales. Pero tienen un guiño para avanzar de otras asociaciones, como las de Caballos de Polo y de Salto.

Fuente:
http://www.clarin.com

jueves, 17 de marzo de 2011

Actividades en la Semana “Día Mundial del Agua”


Se han organizado distintas propuestas de concientización desde el Sábado 19 hasta el Martes 22 de Marzo.
El Dr. Faccendini presentará su libro el Martes 22 de Marzo a las 18 hs.

Por Claudio Pairoba

El Martes 22 de Marzo se celebra el Día Mundial del Agua y con tal motivo la Cátedra Libre del Agua, dirigida por el Dr. Anibal Faccendini, ha organizado una serie de actividades (Ver volante adjunto con descripción).

La Semada Día Mundial del Agua se inició con una presentación en Rectorado describiendo los eventos organizados, la cual contó con la presencia del Sr. Rector Prof. Darío Maiorana, el Secretario General Dr. Darío Masia, el Secretario de Cultura y Educación de la Municipalidad de Rosario, Horacio Ríos y el Dr. Faccendini.

El Sábado 19 de Marzo a las 11 hs, y con la participación de varios clubes, se realizará una respetuosa ofrenda al agua y al Río Paraná. Por la tarde, se presentarán Jorge Fandermole y otros dos grupos musicales. El Lunes 21 se podrá disfrutar de una muestra pictórica titulada “Agua Bien Común” y el Martes 22 se darán por terminados los eventos con la presentación del libro “Agua y Saneamiento: Derecho Humano Esencial. El bien común. La privatización del agua en Santa Fe 1995-2005. Diez años de apropiación indebida. La vulneración de un derecho.”

El Prof Maiorana destacó la prioridad de dar visibilidad a la temática del agua para que la misma sea abordada no sólo desde una instancia académica sino desde la concientización y la propuesta.

Por su parte, el Secretario de Cultura y Educación de la Municipalidad de Rosario, Horacio Ríos, expresó que se buscó apoyar estas jornadas de concientización organizando un espectáculo de más volumen, en el cual se destaca Jorge Fandermole. En sus palabras, el consumo de cultura permite acercar a otros públicos a esta problemática.

Finalmente el Secretario General, Dr. Masia, enfatizó la importancia de concientizar y remarcó la constancia del Dr. Faccendini al ocuparse de esta problemática. Asimismo consideró que las implicancias del tema del agua es una de las situaciones que nuestra Universidad tiene que abordar.

El Dr. Faccendini viene ocupándose del tema desde hace unos 20 años, cuando encaró la temática del agua desde una perspectiva social relacionada con la necesidad de cloacas en distintas zonas de nuestra ciudad. Desde hace un tiempo también se ocupa de los aspectos ambientales relacionados. Con respecto a su libro, destacó que el mismo tiene un abordaje sociológico y jurídico, aspectos que lo movilizaron para comprometerse con esta causa.

martes, 15 de marzo de 2011

Miradas alternativas sobre combustibles alternativos (Tercera parte): Las respuestas de Sergio Montico

Última entrega de la serie sobre Biocombustibles.
Las nuevas miradas permiten analizar los Biocombustibles en mayor profundidad .

Por Claudio Pairoba

Al principio había una euforia y apoyo general respecto del tema de los Biocombustibles. ¿Cómo ve esta cuestión en la actualidad? ¿Hubo algún hecho en particular que determinó la aparición de voces críticas en este tema? 

En realidad las voces críticas estuvieron desde que se comenzó a avizorar este tema. Su instalación en la Agenda Internacional data de más de una década, claro que con mayor énfasis en los últimos años. Cuando se tuvieron más datos y también confiables sobre la expansión de este nuevo mercado a la luz del cambio transicional de la matriz energética mundial, surgieron diversas opiniones que definieron dos posturas contrapuestas, algunas pocas más conciliadoras. La controversia radica principalmente en el destino de la producción de granos y oleaginosas, sí a su transformación en biocarburantes de primera generación (B1G) o a sostener la oferta alimentaria. Pero no sólo eso se objeta, sino también aquello relacionado con cuestiones geoestratégicas. Se argumenta que como los países desarrollados son incapaces de autoabastecerse de B1G porque ello los obliga a destinar superficies para la producción granaría que no disponen, para satisfacer sus necesidades de corte de los combustibles fósiles, acuden al estímulo de los países en vías de desarrollo para que sean estos los que cumplan ese rol. De esta manera los asocian indirectamente a sus políticas energéticas. Claro que cuando esta demanda no tiene la contención debida se producen y producirán externalidades perniciosas. Entonces para los que ven en ello una oportunidad de un mercado promisorio, en auge y cada vez más robusto, otros temen por las presiones que sufrirán tanto los recursos naturales como las comunidades más vulnerables, principalmente de los países del Sur. La cuestión está instalada y muy lejos de conciliarse las posturas antagónicas. 

martes, 8 de marzo de 2011

Títulos y dólares

Por Paul Krugman - 06/03/11

Traducción de Claudio Pairoba



Es una verdad universalmente reconocida que la educación es la llave hacia el éxito económico. Todos saben que los empleos del futuro requerirán cada vez mayores niveles de capacitación. Es por ello, que el Viernes durante una aparición con el ex Gobernador de Florida, Jeb Bush, el Presidente Obama declaró que “Si queremos más buenas noticias en el tema empleos entonces tenemos que invertir más en educación.”

Pero lo que todos saben es equivocado.

Al día siguiente del encuentro Obama-Bush, The Times publicó un artículo acerca del uso creciente de software para llevar adelante investigación legal. Resulta que las computadoras pueden analizar rápidamente millones de documentos, completando de manera económica una tarea que solía demandar ejércitos de abogados y asistentes. En este caso, entonces, el progreso tecnológico esta en realidad reduciendo la demanda por trabajadores altamente capacitados.

Y la investigación legal no es un ejemplo aislado. Como destaca el artículo, el software también ha estado reemplazando Ingenieros en tareas tales como diseño de chips. Desde un punto de vista más general, la idea de que la tecnología moderna elimina solo trabajos menores, que los trabajadores bien formados son claros ganadores, puede dominar las discusiones comunes, pero en realidad está pasada de moda hace décadas.

El hecho es que desde alrededor de 1990 el mercado laboral de los E.E.U.U. se ha caracterizado no por un incremento general en la demanda de capacitación, si no por un “ahuecado”: tanto los empleos con altos salarios como los que tienen bajos salarios han crecido rápidamente, pero los empleos con salarios medios – aquellos con los cuales contamos para respaldar a una clase media fuerte – se han quedado atrás. Y el agujero en el medio se ha estado agrandando: muchos de los trabajos con salarios elevados que crecieron rápidamente en los ’90 han visto un crecimiento mucho más lento en los últimos tiempos, incluso en presencia de un crecimiento acelerado del empleo con bajos salarios.

Qué está sucediendo? La creencia de que la educación se está convirtiendo en algo cada vez más importante descansa en la noción de que los avances en la tecnología aumentan las oportunidades laborales para aquellos que trabajan con la información – en pocas palabras, que las computadoras ayudan a aquellos que trabajan con sus mentes mientras que perjudica a aquellos que lo hacen con sus manos.

Algunos años atrás, sin embargo, los economistas David Autor, Frank Levy y Richard Murnane argumentaron que esta forma de encarar el tema estaba equivocada. Las computadoras, en su opinión, son excelentes en tareas rutinarias, “las tareas cognitivas y manuales que pueden completarse siguiendo reglas explicitadas.” Por lo tanto, cualquier tarea de rutina – una categoría que incluye muchos trabajos profesionales y no manuales – está en la línea de fuego. De manera opuesta, los trabajos que no pueden llevarse a cabo siguiendo reglas explícitas – una categoría que incluye muchas clases de trabajos manuales, desde los que manejan un camión hasta los porteros – van a tender a crecer incluso en épocas de progreso tecnológico.

Y aquí está el tema: la mayoría de los trabajos manuales que todavía se llevan a cabo en nuestra economía parecen ser de la clase que es difícil de automatizar. De manera notable, con una caída en los EE.UU. de cerca del 6 % del empleo en el sector de trabajadores de manufacturas, no hay muchos trabajos que puedan perderse en las líneas de ensamblado. Mientras tanto, muchos empleos profesionales llevados adelante por trabajadores con formación y relativamente bien pagados pueden ser computarizados pronto. Los Roombas (NT: robots que limpian) son lindos, pero los porteros robotizados todavía están lejos; la investigación legal computarizada y el diagnóstico médico asistido por computadoras ya están aquí.

Y después está la globalización. En una época, solo los trabajadores en manufacturas tenían que preocuparse con la competición de ultramar, pero la combinación de computadoras y telecomunicaciones ha hecho posible ofrecer muchos servicios a larga distancia. Y la investigación hecha por mis colegas en Princeton, Alain Blinder y Alan Krueger, sugiere que los empleos muy bien remunerados desempeñados por trabajadores altamente capacitados son, comparados, más “tercerizables” que los trabajos hechos con menores salarios y hechos por trabajadores menos formados. Si tienen razón, el creciente intercambio internacional en servicios va a profundizar aún más el ahuecamiento del mercado laboral norteamericano.

Así que, ¿qué quiere decir todo esto a la luz de nuestras políticas?

Sí, necesitamos solucionar la educación norteamericana. En particular, las inequidades que los norteamericanos enfrentan desde el comienzo – niños inteligentes de familias pobres tienen menos probabilidades de terminar la escuela que niños menos dotados de familias con más recursos – no son solo una atrocidad; sino que representan un enorme desperdicio del potencial humano de la nación.
Pero hay cosas que la educación no puede hacer. En particular, la noción de que poniendo más niños en la escuela, puede reestablecer la sociedad de clase media que solíamos tener es solo una expresión de deseos. Ya no es cierto que tener un título universitario garantiza que Ud. vaya a conseguir un buen trabajo, y se vuelve menos cierto con cada década que pasa.

Así que si queremos una sociedad con prosperidad compartida por todos, la educación no es la respuesta – vamos a tener que construir esa sociedad de manera directa. Necesitamos recuperar el poder de negociación que los trabajadores han perdido durante los últimos 30 años, de manera que el trabajador común al igual que los superestrellas tengan el poder de negociar buenos salarios. Necesitamos garantizar lo básico, sobre todo cobertura de salud para cada ciudadano.

Lo que no podemos hacer es llegar adonde queremos ir solo dándole a los trabajadores títulos universitarios, lo cual puede no ser otra cosa más que pasajes a empleos que no existen o que no pagan salarios de clase media.

Fuente:
http://www.nytimes.com

Conectando empresa e investigación: la tarea de una vinculadora

Graduada como bioquímica, Lelia Orsaria siguió un camino que la llevo a ser vinculadora tecnológica. El interés y la búsqueda de su vocación...