viernes, 19 de octubre de 2012

Sobre los signos de advertencia tempranos.

El autor reflexiona sobre la búsqueda de orden en el aparente caos.



Cambios rápidos son distintivos del cambio climático, los ataques de epilepsia, las crisis financieras y los colapsos pesqueros. Principios matemáticos profundos enlazan a estos eventos.

Por George Sugihara
Traducción por Claudio Pairoba

En un encuentro cerrado que se desarrolló en Boston en octubre del 2009, el lugar estaba repleto personalidad de la política exterior y las finanzas: Henry Kissinger, Paul Volcker, Andy Haldane y Joseph Stiglitz entre otros, así como representantes de fondos de riqueza soberanos, pensiones y donaciones por valor de un billón de dólares – una significativa tajada de la riqueza del mundo. La sesión abrió con la siguiente pregunta reveladora: “¿El último par de años nos ha mostrado que nuestros modelos tradicionales de riesgo y financieros están irrecuperablemente destruidos y que los modelos y aproximaciones de otros campos (por ejemplo, la ecología) pueden ofrecer una mejor comprensión de la interconexión y fragilidad de los sistemas financieros complejos?
La ciencia es una empresa humana creative: Los descubrimientos se hacen en el contexto de nuestras creaciones: nuestros modelos y e hipótesis acerca de cómo funciona el mundo. Las grandes fallas, sin embargo, pueden ser una llamada de alerta sobre las visiones enfrentadas, y nada trae humildad o llama la atención más rápido que un evento que toma por sorpresa a tantos tan rápido.

Ejemplos de cambios catastróficos y sistémicos se han estado acumulando en una variedad de campos, típicamente en contextos especializados con poca conexión cruzada. Solo recientemente hemos comenzado a buscar patrones genéricos en la red de causas y efectos conectados que pone eventos dispares en un marco común – un marco que opera en nivel lo suficientemente alto para incluir cambios climáticos geológicos, ataques epilépticos, debacles de los mercados y la industria pesquera y rápidos cambios de ecosistemas saludables a desiertos biológicos.

Los temas principales de este marco son dobles: Primero, son todos sistemas complejos de partes interconectadas e independientes. Segundo, son sistemas no lineales y que no están en equilibrio, que pueden sobrellevar cambios de estado rápidos y drásticos.

Consideren primero las interconexiones complejas. Generalmente no se piensa en la economía como un problema de sistemas globales. De hecho, los bancos de inversión son famosos por una marca de visión en tunel que enfoca el manejo de riesgos a nivel de las firmas individuales e ignora los problemas financieros en red que son menos frecuentes pero más costosos y difíciles. El monitoreo de redes de firmas similares a ecosistemas, con hojas de balances entrelazadas no aparece en la descripción de las ocupaciones de un gerente de riesgos. Aún así, existe un acuerdo emergente que al ignorar el a”parentemente incomprensible entramado de obligaciones de las contrapartes e interdependencias mutuas (la pesadilla de un contador, más recursiva que la rutina de Abbott y Costello “¿Quién está en primera?) evitó una real evaluación de las primas de riesgo, lo que ayudó a propagar la crisis actual.

Una situación paralela existe en la industria pesquera, donde tradicionalmente se manejan los stocks una especie a la vez. La alarma por el colapso con las reservas de peces, sin embargo, está ayudando a crear la actual tendencia para un manejo del océano basado en los ecosistemas. Este es un paso en la dirección correcta, pero los modelos actuales de simulación de ecosistemas continuan siendo incapaces de reproducir derrumbes reales en la población. Y lo mismo es real para la mayoría de los modelos de simulación climáticos. Aunque los datos geológicos nos dicen que las temperaturas globales pueden cambiar rápidamente, los modelos consistentemente subestiman esa posibilidad. Esto se relaciona con la siguiente propiedad, la naturaleza no lineal y de no equilibrio de los sistemas.

La mayoría de los sistemas diseñados, consistentes en resortes mecánicos, transistores y cosas por el estilo, son construídos para permanecer estables. O sea, si se los aleja del reposo o equilibrio, vuelven a ese estado. Muchos modelos ecológicos simples, modelos fisiológicos e incluso los modelos económicos y climáticos se construyen asumiendo el mismo principio: un equilibrio estable de naturaleza global. Una simplificación relacionada es ver al mundo como formado por partes separadas que pueden ser estudiadas de manera lineal, una pieza por vez. Estas piezas pueden sumarse de manera independiente para obtener el todo. Los investigadores han desarrollado una gran cantidad de herramientas y métodos analíticos y estadísticos basados en esta idea lineal, y han probado ser de invalorable ayuda para el estudio de dispositivos simples. Pero incluso cuando muchos de los sistemas complejos que nos interesan son no lineales, insistimos con estas herramientas y modelos. Es un caso de mirar bajo el poste de luz porque la luz es mejor aunque sabemos que las llaves perdidas están en las sombras. Los sistemas lineales producen hermosas estadísticas estacionarias – métricas de riesgo constantes, por ejemplo. Dado que asumen la ausencia de variación de un proceso a lo largo del tiempo, uno puede obtener una pequeña muestra para tener una idea de cómo se ve el universo de posibilidades más grande. Esta característica de los sistemas lineales suena atrayente para nuestro razonamiento heurístico normal.

Sin embargo, los sistemas no linelaes no se comportan tan bien. Pueden aparecer estacionarios por un largo período de tiempo, luego y sin que medie ningún cambio, muestran saltos en variabilidad – llamados de variancia cambiante. Por ejemplo, si uno mira al rango de variables económicas durante la década pasada (movimientos diarios del mercado, cambios en el Producto Bruto Interno, etc.), uno podría inferir que la variabilidad y el universo de posibilidades son modestos. Este era el modus operandi del manejo de riesgo normal. A consecuencia de esto, la posibilidad de algunos de los grandes movimientos que vimos en el 2008, los cuales ocurrieron a lo largo de varios dias consecutivos, debería haber sido inferior a una vez en la vida del universo.

Nuestro problema es que el deseo científicos de simplificar ha tomado control, algo sobre lo que Einstein advirtió cuando parafraseó a Occam: “Todo debería hacerse tan simple como sea posible, pero no más”. Pensar en los sistemas naturales y económicos como de naturaleza esencialmente estable y pasibles de ser descompuestos en partes es una buena hipótesis inicial, las observaciones y mediciones actuales no respaldan esta hipótesis – de allí nuestra contínua sorpresa. Así como nos gusta la idea de constancia, somos caprichosos para cambiar. Josh Billings el humorista norteamericano del siglo 19, lo dijo muy bien: “No es lo que no sabemos lo que nos causa problemas, es lo que sabemos que no es así.”

Así que, ¿cómo procedemos? Hay una serie de formas para aproximarnos de manera táctica, incluyendo nuevas técnicas con gran cantidad de datos que modelan cada sistema de manera única pero buscando características comunes. Sin embargo, un acercamiento más estratégico consiste en estudiar estos sistemas en su nivel más genérico, identificar principios universales que sean independientes de los detalles específicos que distinguen a cada sistema. Este es el dominio de la teoría de la complejidad. Entre estos principios está la idea de que podría haber señales universales de alarma temprana para las transiciones críticas, señales diagnósticas que aparecen cercanas a puntos inestables de rápido cambio. El argumento reciente para las señales tempranas se basa en lo siguiente: 1) que tanto los modelos simples como los no lineales complejos y más reales muestran estos comportamientos, y 2) que hay creciente evidencia empírica para estos precursores comunes en una variedad de sistemas.

Un fenómeno clave conocido por décadas es el llamado “enlentecimiento crítico” a medida que se aproxima un umbral. O sea, una respuesta dinámica del sistema a las perturbaciones externas se vuelve más lento cerca de los puntos de inflexión. Matemáticamente, esta propiedad da lugar a una inercia aumentada en las subidas y bajadas de cosas tales como temperatura y números de poblaciones – llamamos a esta inercia “autocorrelación” – lo cual a su vez puede resultar en cambios más marcados, o más volatilidad. En algunos casos, incluso puede producir “parpadeos”, o alternancia rápida entre un estado estable y otro (imagine un lago rebotando una y otra vez entre transparente y oxigenado vs. plagado de algas y sediento de oxígeno). Otro comportamiento temprano es un incremento en “resonancia espacial”: pulsos que ocurren en partes vecinas de la red se sincronizan. Neuronas cercanas disparan al unísono desde minutos hasta horas anteriores a un ataque epiléptico, por ejemplo, y los mercados financieros globales pulsan juntos. Se ha visto que la autocorrelación que deriva del enlentecimiento crítico es un indicador particularmente bueno de ciertos eventos de cambio climático geológico, tales como la transición entre invernadero-casa de hielo que ocurrió 34 millones de años atrás; el efecto inercial del enlentecimiento de los sistemas climáticos se acumuló de manera gradual a lo largo de millones de años, terminando de manera brusca en un cambio rápido que convirtió un planeta verde y exuberante en otro con regiones polares cubiertas de hielo. El quiebre financiero global ilustra el fenómeno de enlentecimiento crítico y resonancia espacial.

Al acercarnos a la crisis, hubo un marcado incremento en homogeneidad entre instituciones, tanto en sus estrategias de generación de ganancias así como en sus estrategias de manejo de riesgo, de manera tal que se incrementó la correlación entre fondos y a través de los países – un señal temprana. De hecho, con respecto al manejo de riesgo a través de la diversificación, es irónico que la diversificación fue tan extrema que se perdió: todos siendo propietarios de una parte del todo crea una homogeneidad completa. La reducción del riesgo a través de un incremento en la diversidad del portfolio tiene sentido para cada institución individual, pero si todos lo hacen, crea riesgos enormes para los grupos o sistemas. Matemáticamente, tal homogeneidad conduce a una conectividad aumentada en el sistema financiero, y el número y fuerza de estos lazos crece a medida que crece la homogeneidad. Por lo tanto, la consecuencia de aumentar la conectividad es desestabilizar un sistema genérico complejo: cada institución se vuelve más afectada por la hoja de balances de las instituciones vecinas que por la propia. El rol del monitoreo de riesgo sistémico, entonces, podría ser la rápida detección y diseminación de desbalances potenciales, de la misma manera en que permitimos los incendios frecuentes de malezas para impedir incendios catastróficos. En el caso de que esta clase de desbalances sean rápidamente identificados, tal vez no necesitemos regulaciones más allá de una rápida difusión de información. Tener disrupciones frecuentes y pequeñas incluso podría ser señal de un sistema financiero innovador y saludable.

Se podrían obtener lecciones tácticas adicionales de las similitudes en la estructura de redes de pagos bancarios y redes “mutualistas” o cooperativas en Biología. Se cree que estas estructuras promueven el crecimiento de las redes y sostienen más especies. Considere el caso de las plantas y sus insectos polinizadores: cada grupo se beneficia mutuamente, pero existe competencia dentro de los grupos. Si los polinizadores interaccionan con plantas promiscuas (generalistas que se benefician de muchas especies de insectos diferentes), la competencia total entre insectos y plantas disminuye y el sistema puede crecer mucho.

Las relaciones de esta clase se ven también en sistemas financieros, donde pequeños bancos especialistas interaccionan con grandes bancos generalistas. De manera interesante, la misma estructura jerárquica que estimula la biodiversidad en redes de cooperación plantas-animales puede incrementar el riesgo de fallas sistémicas a gran escala: el mutualismo facilita una mayor biodiversidad, pero también crea la posibilidad de que muchas especies dependientes se extingan, especialmente si generalistas grandes y bien conectados – ciertos grandes bancos, por ejemplo – desaparecen. Se vuelve un argumento para la política de “demasiado grande para fallar”, en la cual el tamaño de la red de la compañía en Facebook importa más que el tamaño de su hoja de balances.

Para estar seguros, rescatar a una gran institución financiera genera cuestiones de “peligro moral”. Sin embargo, la razón más convincente para andar con cuidado es que esta acción podría propagar otro colapso sistémico en otra parte de la red si hay demasiado subsidio enfocado y el beneficio no se distribuye (un punto relevante para aquellos que están manejando fondos TARP). Los términos excesivamente favorables entre dos agentes que cooperan – digamos la Reserva Federal y una institución financiera grande – pueden conducir a un colapso no buscado de otros agentes y a un eventual duopolio.

Otro buen ejemplo es el de la interdependencia del sitio de subastas online eBay y el sistema de pagos electrónicos PayPal. PayPal fue la forma de pago dominante para las subastas en eBay cuando eBay la compró en 2002, fortaleciendo los lazos cooperativos entre las dos compañías. Esta sociedad duopolística contribuyó a la desaparición de sistemas de pagos que competían, tales como Billpoint de eBay (desaparecido después de la compra de PayPal), c2it del Citibank (cerrado en 2003) y el PayDirect de Yahoo! (cerrado en 2004).

Como un pensamiento final, aunque nos gustaría predecir y manejar los cambios catastróficos, algunos serán inevitables. La inestabilidad es un hecho de la naturaleza. Y aunque ahora nos parezca difícil, un día los desplazamientos del cambio climático empequeñecerán nuestras preocupaciones sobre la economía. A medida que nos volvemos más conscientes de las formas en que nuestras acciones nos acercan más rápidamente a los puntos de inflexión del cambio climático, tal vez nuestra posesión más preciada será nuestra habilidad de anticipar estos cambios lo suficientemente rápido para evitarlas o, por lo menos, prepararnos para sus consecuencias.

George Sugihara es biólogo teórico y se desempeña en el Scripps Institution of Oceanography.


Fuente:
www.seedmagazine.com

lunes, 8 de octubre de 2012

Geekonomía: nuevos escenarios derivados de la revolución digital.

La revolución digital está cambiando las formas en que interaccionamos. La ciencia no se queda afuera.


Hugo Pardo Kuklinski, doctor en Comunicación de la Universidad de Barcelona ha escrito un libro sobre las nuevas interacciones en la era de la revolución digital. Este material está disponible para ser descargado desde la Internet.


El capítulo 2 de dicho libro trata el tema del libre acceso a la comunicación científica. El escenario tradicional de las editoriales que detentan el control de los trabajos científicos publicados se enfrenta al nuevo escenario de las revistas de libre acceso. Intereses económicos, prestigio científico y prepuestos gubernamentales se ven indudablemente afectados por la nueva alternativa, surgida como consecuencia de las nuevas tecnologías de la información y la comunicación.

Incluyo una charla sobre el tema a cargo del autor.

http://www.youtube.com/watch?v=qLQYf7u3uHM








El pensamiento infantil es científico.

SINC - Los niños piensan de forma muy similar a la que se emplea en la ciencia. Investigadores de la Universidad de California explican que las hipótesis, las inferencias causales y el aprendizaje a partir de la estadística y de la observación son algunos de los métodos usados por los más pequeños y que los convierten en “pequeños científicos”.













La comprensión de las relaciones causales al observar el entorno y la capacidad de establecer preferencias a partir de unos patrones estadísticos son algunas de las características de los niños que los convierten en pequeños investigadores. Ahora, una investigadora de la Universidad de California en Berkeley se ha adentrado en el aprendizaje de los más pequeños con un estudio que publica la revista Science y que puede ayudar a mejorar la enseñanza de las disciplinas científicas.

Hace 30 años, pensadores como Jean Piaget –pionero de la teoría del desarrollo cognitivo– defendieron que los niños pensaban de manera opuesta al método científico. Él los describía como “irracionales, ilógicos y limitados al aquí y al ahora”, adjetivos que fueron base de inspiración para algunos modelos educativos y políticos de una época en la que, por encima de todo, las técnicas de enseñanza se centraban en el profesor.
Sin embargo, esta nueva investigación refuta las ideas de Piaget y relata un experimento curioso: dos niños menores de dos años ven a una persona ‘A’ que coge ranas de una caja llena de ranas, o bien ranas de una caja en la que solo hay patos. ‘A’ se marcha y otra persona ‘B’ da a los niños dos cajas, la primera con ranas y la segunda con patos. Cuando ‘A’ vuelve y extiende la mano, los niños pueden darle tanto una rana como un pato.

La sorpresa de la científica fue que cuando la persona ‘A’ había cogido ranas de la caja llena de patos, los niños le daban una rana porque intuían que prefería las ranas; en cambio, cuando había cogido una rana de la caja llena de ranas, le daban indistintamente un animal o el otro porque intuían que su elección había sido al azar. Este tipo de respuestas “demuestran que los niños menores de dos años tienen preferencia por patrones estadísticos”, recoge el estudio.

En la última década algunas líneas de investigación han propuesto demostrar que los pequeños adquieren conocimiento mediante procesos similares a la inducción característica de la ciencia: analizan patrones estadísticos, hacen experimentos y asimilan conocimientos mediante la observación de lo que hacen los demás.

El uso de los métodos probabilísticos para conocer el entorno es muestra de la vertiente científica infantil. Las personas adultas, especialmente los científicos, son capaces de saber que hay muchas hipótesis compatibles con la evidencia y que, además, algunas tienen mayor probabilidad de ser acertadas que otras.

El trabajo explica cómo utilizando la técnica del ‘tiempo de observación’, un grupo de científicos situó a dos niños ante dos cajas, una llena de bolas rojas de pimpón y otra con bolas blancas. Cuando alguien extraía bolas rojas de la caja donde la mayoría de ellas eran blancas, los niños miraban durante más tiempo que cuando cogía muchas bolas rojas de una caja llena de bolas rojas. “Los niños menores de dos años infieren un estado mental subyacente –una preferencia– a partir de un patrón estadístico”, explica el estudio.

Conocer observando a los demás
Otra faceta del comportamiento científico de los niños es la que les permite “aprender extrayendo conclusiones a partir de lo que hacen los demás”. En su investigación se ha analizado el caso de niños de cuatro años que veían secuencias distintas de tres acciones con un juguete. Esas acciones sucedían o no en cada prueba y el análisis estadístico de los datos sugería que solo las últimas dos maniobras eran necesarias para activar el juguete.

Sorprendentemente, cuando los niños cogían el juguete, con frecuencia solo reproducían esas dos acciones relevantes en lugar de imitar todo lo que habían observado antes, lo que explica que “pueden aprender las relaciones causales observando lo que otras personas hacen y el resultado de esas acciones”.

Saber que los niños aprenden a partir de la estadística y de las acciones de los demás del mismo modo que lo hacen los científicos podría facilitar el marco necesario para que “a partir de ahora se utilice la curiosidad natural de los niños para diseñar nuevos métodos de enseñar y aprender la ciencia”.

Fuente:
www.oei.es

jueves, 27 de septiembre de 2012

Amarga dulzura.

Desde la jubilosa exclamación de Celia Cruz, pasando por el refranero popular y llegando hasta la mitológica ambrosía, lo dulce siempre ha estado presente en nuestra cultura y sobre todo en nuestra dieta. Una presencia que ahora se vuelve aún más controvertida.
Los aspectos negativos adicionales del azúcar, parte integral de nuestra dieta, están siendo estudiados .

Por Claudio Pairoba

¡Azúcar! decía la antológica cantante cubana Celia Cruz, “una gota de miel atrae más moscas que de vinagre un tonel” aseveraban las abuelas y los dioses ingerían la mitológica ambrosía, la miel sagrada que los alimentaba según innumerables escritos producidos a través de los tiempos.

Ahora, algunos médicos e investigadores comienzan a exclamar cuando hablan del azúcar. Pero las exclamaciones no son de alegría.

En un segmento del prestigioso programa norteamericano “60 minutos”, el Dr. Sanjay Gupta presentó una investigación sobre lo que amenaza, o ya lo es según algunos, convertirse en un problema de salud pública para los EE.UU.: la ingesta de azúcar. Los resultados obtenidos hasta el momento encienden una luz de alerta, extrapolable a cualquier país occidental con una dieta similar a la del país del norte.

La toxicidad del azúcar
Ante la pregunta “¿El azúcar es tóxica?”, el Dr. Robert Lustig (pediatra endocrinólogo de la Universidad de California, San Francisco) contesta “Yo creo que sí”. El profesional es uno de los que llevan adelante una guerra en contra del azúcar, a la que culpa de numerosas patologías: obesidad, diabetes tipo II, hipertensión y enfermedad cardíaca. El estilo de vida norteamericano ha llevado a la situación actual con un 75 % de casos previsibles. Su video en Youtube (“La verdad amarga”) ha convertido a su mensaje en algo masivo, más allá de los numerosos trabajos que ha publicado.

Lustig está en contra de los “alimentos malos” obvios: azúcar de mesa, miel, almíbar, bebidas dulces y postres. Pero también apunta a aquellos alimentos donde el azúcar está escondida: yogures, salsas y pan.

Uno de sus principales objetivos es el jarabe de maíz con alto contenido en fructosa. Si bien en los EE.UU. el consumo de azúcar ha disminuido más del 40%, el consumo del jarabe de maíz ha cubierto la diferencia. Ambos son igualmente peligrosos ya que contienen fructosa, la cual es la responsable de hacer que los dulces sean irresistibles.

La forma principal en que ingeríamos azúcar en el pasado era a través de las frutas, las cuales además contienen fibras las cuales lentifican la absorción y la ingesta. Por ejemplo, nadie puede comerse 10 naranjas en un corto período de tiempo. La producción de azúcar y jarabe de maíz se ha vuelto barata razón por la cual ingerirlos además de darnos placer es accesible. En los EE.UU. una persona ingiere por año a razón de 150 g de azúcar/jarabe por día. Lustig sabe que su opinión de que el consumo de azúcar es una de las causas principales de enfermedades cardíacas ha sido controvertida.

Pero la controversia sobre la opinión de Lustig y su “exagerada” visión del papel del azúcar en el desarrollo de enfermedades comienza a tener evidencia científica. Kimber Stanhope, una bióloga y nutricionista en la Universidad de California, Davis, está llevando a cabo un histórico estudio de 5 años que comienza a mostrar que existe relación entre el consumo elevado del jarabe de fructosa y los problemas cardíacos y accidentes cerebro vasculares. Según indica Stanhope, la idea de que todas las calorías son iguales comienza a ser puesta en el tapete.

Uno de los principales escollos que este tipo de estudios tiene son las dificultades económicas y logísticas. En este caso Stanhope les a ha pagado a grupos de voluntarios para que vivan en el laboratorio (a veces por semanas), encerrados y sometidos a una dieta donde se controla de manera exhaustiva el tipo de alimentos y las calorías que los individuos ingieren.

Los resultados que Stanhope ha obtenido hasta el momento son preocupantes: los individuos que consumen jarabe de fructosa muestran niveles más altos de colesterol LDL (el denominado colesterol “malo”) así como un aumento de los factores de riesgo para enfermedades cardíacas.

Recuerdos preocupantes
Los resultados obtenidos con una sustancia de consumo masivo como el azúcar traen recuerdos de los cambios en la dieta que los norteamericanos sufrieron en la década del 70. En ese entonces, una comisión del gobierno decidió disminuir el contenido en grasas de las comidas normalmente ingeridas por la población de los EE.UU. con el fin de disminuir las enfermedades cardíacas.

A pesar de esas medidas, las enfermedades cardíacas, la diabetes y el síndrome metabólico están por las nubes y el Dr. Lustig lo atribuye a “cambios compensatorios”. “Sacá la grasa de la comida y esta tiene gusto a cartón. Y la industria alimenticia sabía eso. Así que la reemplazaron con azúcar”, en opinión del médico.

Lustig también recalcó que la conexión por la cual el azúcar incrementa el colesterol malo es algo nuevo y que muchos médicos todavía no la conocen.

Azúcar y cáncer
Otra inquietante conexión es la que comienza a aparecer entre azúcar y cáncer. Lewis Cantley, un profesor de la Universidad de Harvard y director del Beth Israel Deaconess Cancer Center hace referencia al pico de liberación a sangre de la hormona insulina cuando uno come o bebe sustancias azucaradas. Esta hormona puede estimular el desarrollo de ciertos tipos de cáncer.

Según manifiesta Cantley “un tercio de los tipos de cáncer más comunes (incluyendo colon y mama) tienen en su superficie algo denominado receptores para insulina. La insulina se une a estos receptores y da la señal al tumor para que comience a consumir glucosa”. “Todas las células del cuerpo usan glucosa para sobrevivir, pero las células cancerosas también la usan para crecer”, agrega el investigador.

Cantley trabaja en el desarrollo de drogas que permitan cortar el suministro de glucosa a las células tumorales, pero su consejo es claro: no consumir azúcar. Y si no hay opción, hacerlo en cantidades mínimas. El médico vive de acuerdo a lo que predica: prefiere tomar un vaso de agua antes que una bebida azucarada.

Adictos al azúcar
Según Eric Stice, un neurocientífico del Oregon Research Institute, el azúcar es mucho más adictiva de lo que se pensaba. Stice usa resonancia magnética para estudiar como el cerebro responde al azúcar. El investigador indica que la forma en que esta sustancia activa al cerebro es muy similar a aquella en que lo hacen las drogas. Por ejemplo, la cocaína.

El mismo Sanjay Gupta se sometió a una prueba para ver qué pasaba al ingerir una bebida azucarada estando dentro del aparato de resonancia magnética: la respuesta fue instantánea. Incremento del flujo de sangre a ciertas partes del cerebro y liberación de dopamina, el neurotransmisor que controla el centro del placer, de manera similar a lo que ocurre con el alcohol o las drogas.

Según indica Stice, el azúcar es muy buena para activar las regiones de recompensa del cerebro. Al mismo tiempo, el investigador indica que luego de trabajar con centenares de voluntarios, descubrió que se puede desarrollar una tolerancia a este efecto placentero. O sea que para conseguir el mismo efecto, cada vez hay que ingerir mayores cantidades de azúcar.

El punto de vista industrial
El Dr. Gupta entrevistó también a un representante del sector azucarero: Jim Simon, miembro del directorio de la Asociación del Azúcar.

El productor enfatizó que antes que ensañarse con un único tipo de alimento, hay que trabajar para que la gente sea más cuidadosa con las calorías que ingiere y para que ejercite. De igual manera, considera que los estudios científicos no son concluyentes aún y que la gente debe trabajar para tener una dieta balanceada.

Lo que el Dr. Lustig entiende por dieta balanceada implica consumir menos de 150 calorías por día provenientes del azúcar, en el caso de los hombres. Esta cantidad baja a sólo 100 calorías por día en el caso de las mujeres. Menos de lo que contiene una lata de gaseosa.

El comentario final de Lustig es para pensar: “En último caso esto es una crisis de salud pública. Y cuando se trata de una crisis de salud pública, uno tiene que hacer grandes cosas y tiene que hacerlas en todos los niveles. El tabaco y el alcohol son ejemplos perfectos. Hemos hecho una elección meditada de que no vamos a liberarnos de ellos, pero vamos a limitar su consumo. Creo que el azúcar pertenece exactamente a este mismo tacho de basura”.

Fuente:
www.cbsnews.com

jueves, 20 de septiembre de 2012

El ocaso de los papers.

Para fomentar la aplicación del conocimiento en el sector productivo, las universidades, el Conicet y los demás organismos que integran el sistema científico definen junto al Ministerio de Ciencia criterios específicos para evaluar a los investigadores.
Las publicaciones son un punto clave en el sistema actual de evaluación de los investigadores.

Por Agustín Saavedra.

El Ministerio de Ciencia y Tecnología, el Conicet, las universidades públicas y privadas, y los demás organismos del sistema científico nacional avanzan en un acuerdo para redefinir el régimen de evaluación de los investigadores. Se trata de un “acuerdo histórico” que podría “cambiar la forma de hacer ciencia en la Argentina”, según anuncian sus impulsores. Las instituciones que integran el sistema científico coincidieron una vez por mes durante un año de trabajo exhaustivo y llegaron a una definición: crear parámetros de evaluación propios para la ciencia aplicada, hasta ahora examinada bajo las reglas de juego de la ciencia básica. “No queremos que el conocimiento permanezca en el ámbito académico –le dijo a Página/12 el secretario de Articulación Científica y Tecnológica de la Nación, Alejandro Ceccatto–. Hay una voluntad política de poner el sistema científico y tecnológico al servicio del bienestar del país.”

El proyecto de evaluación del personal científico, que podría ser presentado formalmente el mes que viene, avanza en el seno del Consejo Interinstitucional de Ciencia y Tecnología (Ciciyt), que preside Ceccatto y que reúne a todos los organismos del sector, el Conicet, el INTI, el INTA, la CNEA, el Consejo Interuniversitario Nacional (CIN), el Consejo de Rectores de Universidades Privadas (CRUP), entre otras instituciones.

“Si ponemos el acento únicamente en las formas tradicionales de evaluación, basadas en indicadores bibliométricos, los famosos papers, estamos condicionando el trabajo de muchos investigadores. Porque se hace muy difícil desarrollar tecnología cuando las carreras científicas demandan la publicación de papers –explicó Ceccatto–. Esta problemática de alguna manera venía impidiendo concretar más fuertemente el objetivo global del ministerio, lograr que el conocimiento académico se inserte en el sector productivo y ayude a mejorar al conjunto de la sociedad.”

Organizados en dos subcomisiones, los representantes de las entidades científicas centraron el trabajo en dos temáticas consideradas “urgentes”. En primer lugar, la evaluación de la actividad tecnológica y de transferencia, esto es, cómo generar un mecanismo de evaluación alternativo, no excluyente, al tradicional, y en segundo término, cómo hacer para compatibilizar las evaluaciones del personal del Conicet que esté inserto en organismos de ciencia aplicada. Para Ceccatto, hoy “se genera una situación casi esquizofrénica en el investigador. Si trabajás en la Comisión Nacional de Energía Atómica, pero sos un investigador del Conicet, tenés dos patrones. Si respondés al empleador del Conicet tenés que publicar mucho; si querés responder a la CNEA no tenés que publicar nada. Entonces, ¿qué hacés?”. La respuesta es lo que se busca con un nuevo mecanismo de evaluación.

En los hechos, la cuestión va a pasar por la conformación de un banco nacional de “proyectos de desarrollo tecnológico y social” que estará en la órbita del Ministerio de Ciencia. Allí se ubicarán las propuestas de investigación aplicada que cada institución decida elevar. “Para la gente que trabaje en esos términos se va a implementar una filosofía de evaluación completamente distinta de la actual –explica Ceccatto–. No se los va a mirar en primera instancia por el número de publicaciones que tengan o por lo que estén haciendo como investigadores aislados. Se los va a evaluar en el contexto del proyecto que los ocupe, es decir, a qué apunta, qué quiere lograr el proyecto. Al individuo que hace tecnología hay que considerarlo dentro de un grupo de trabajo que tiene un objetivo trascendente más allá de la búsqueda personal de cada científico. Se trata de una evaluación global de la actividad, que reemplazaría al paper.”

Si bien el acuerdo está avanzado y los representantes de las instituciones dieron su visto bueno en el marco del debate, cada organismo deberá ahora analizar el proyecto puertas adentro para obtener una resolución final, que podría llegar el mes que viene. A nivel universitario, será analizado en un encuentro del CIN el 27 y 28 de este mes. “No es mi estilo la grandilocuencia –dijo Ceccatto–, pero creo que estamos a punto de arribar a acuerdos y consensos del conjunto del sistema que son históricos.”

Fuente:
www.pagina12.com.ar

sábado, 25 de agosto de 2012

Primer estudio con células madre en ACV.

Por Nora Bär | LA NACION




En un panorama frecuentemente dominado por promesas sin fundamento e ilusiones que no se cumplen más que en un puñado de trastornos de la sangre, el Incucai acaba de aprobar el primer ensayo clínico del uso de células madre en neurología que se realiza en el país.
Científicos de Fleni y el Cemic estudiarán la seguridad y efectividad de estas entidades, que en cuanto se advirtió su capacidad para reparar los tejidos fueron llamadas "la mina de oro de la biología". Las emplearán para tratar las secuelas del accidente cerebrovascular (ACV) o ataque cerebral.

Como corresponde, la investigación se realizará en forma absolutamente gratuita y con el consentimiento informado de los participantes, y forma parte del Programa Binacional de Terapia Celular (Probitec), una iniciativa conjunta de Brasil y la Argentina. Participan seis centros del país vecino, coordinados por la Universidad de Río de Janeiro, y los dos locales, con Fleni como centro coordinador.

"El programa cuenta con financiación de los ministerios de Ciencia de ambos países -cuenta el doctor Sebastián Ameriso, jefe del Departamento de Neurología Vascular de Fleni e investigador principal del proyecto, que trabajará junto con los doctores Gustavo Sevlever , de Fleni, y Marina Romano, de Cemic, entre otros-. En estos casos es imprescindible, porque no hay una medicación de por medio que pueda interesar a una compañía privada: el «medicamento» lo preparamos nosotros."
Sebastián Ameriso. Jefe de neurología vascular, Fleni. 
Estas células que se pondrán "bajo la lupa" durante los próximos tres años en 140 personas, son capaces de dividirse sin perder sus propiedades o de transformarse en los distintos tejidos del organismo cuando reciben las señales indicadas o se encuentran en las condiciones adecuadas. Para ser admitido en el estudio, los pacientes deberán haber padecido un ACV de la arteria cerebral media (un cuadro considerado entre moderado y grave) de entre seis horas y siete días de evolución.

El tratamiento consistirá en realizarles una punción de médula ósea para obtener las células madre, e inmediatamente procesarlas para identificar las que tengan la capacidad de producir factores neurotróficos (proteínas que protegen a las neuronas).

Tras este procedimiento, que en manos experimentadas como las de los hematólogos de Fleni y Cemic, expertos en trasplante de médula ósea, dura un par de horas, millones de esas células teóricamente prodigiosas serán inyectadas en la arteria media ingresando por la carótida.

"En algún momento se pensó que las células madre implantadas se convertirían en neuronas -explica Amerise-. Pero hoy sabemos que esto no es viable, porque se encuentran en un ambiente en el que no pueden desarrollarse y no establecen conexiones con el resto. En muchos casos, aunque se ubiquen en la lesión, no sobreviven mucho tiempo. En cambio, lo que se ha visto con estudios de tomografía de emisión de positrones (PET, según sus siglas en inglés) es que estas células productoras de factores neurotróficos son reconocidas y establecen un «diálogo» con las neuronas, y quedan fijas en la zona del infarto varios días durante los cuales las sustancias protectoras que segregan ayudarían a una mejor recuperación."

Datos preliminares

Según explica el especialista, ya existen estudios piloto en seres humanos con este mismo protocolo en Brasil, España y Gran Bretaña, y los resultados serían alentadores.
 
"Lo que se ve hasta ahora es que el procedimiento parece ser seguro y los datos preliminares, en un número pequeño de pacientes que no supera los treinta, sugieren que puede ser eficaz", comenta Ameriso.
La efectividad del tratamiento se evaluará con un instrumento de los Institutos Nacionales de Salud de los Estados Unidos, que mide mejoría de los déficits motores, de lenguaje, visuales o cognitivos, a corto o mediano plazo, en una escala aceptada mundialmente de entre 0 y 21 puntos.
 
Para la doctora Fabiana Arzuaga, coordinadora de la Comisión Asesora en Medicina Regenerativa y Terapias Celulares del Ministerio de Ciencia y Tecnología, "el nuevo contexto generado por la investigación con células madre impone el desafío de enfrentarse a nuevas realidades en donde las relaciones de cooperación entre los diferentes sectores, incluyendo a la comunidad, se tornan fundamentales para encontrar soluciones creativas que permitan administrar los riesgos de las nuevas tecnologías y aprovecharlas en beneficio de la sociedad. [En ese sentido] el ensayo clínico con células madre para el tratamiento de pacientes con ACV es un ejemplo claro de cómo el Estado, el sector privado, la comunidad científica y los pacientes pueden cooperar para encontrar nuevas curas a enfermedades que hoy no las tienen".
 
Se estima que en la Argentina se producen 481 ACV cada 100.000 habitantes. Según los datos del último censo, esto se traduciría en aproximadamente 40.000 ataques cerebrales isquémicos anuales.
En la actualidad no hay tratamientos probados con células madre para reemplazar los tejidos dañados o lesionados por patologías neurológicas. "Los mecanismos por los que las células trasplantadas pueden inducir la recuperación funcional todavía no se entienden completamente -dice Ameriso-, pero es posible que los efectos se deban a la liberación de factores tróficos o la modulación de los fenómenos inflamatorios."
 
ANTE LA DUDA, ES MEJOR CONSULTAR
Los únicos usos establecidos de las células madre son los destinados a tratar enfermedades mediante el trasplante de médula ósea, y aquellos que están supervisados por el organismo de control, que en este caso es el Incucai. En la actualidad no existe evidencia clínica que indique que el trasplante de células madre sea eficaz para mejorar o curar la diabetes, el mal de Parkinson, el Alzheimer u otras enfermedades altamente discapacitantes. La comisión asesora del Ministerio de Ciencia recibe consultas en cacm@mincyt.gov.ar , y la Sociedad Internacional para la Investigación en Células Madre, en su sitio web www.isscr.org .
.
 
Fuente:
www.lanacion.com.ar

viernes, 17 de agosto de 2012

Así informaron en Francia la muerte de José de San Martín.

Por Claudia Peiro

El 21 de agosto de 1850, un diario de Boulogne-sur-mer publicó una necrológica que sorprende por lo completa y detallada. Escrita por un amigo francés, es una minibiografía exenta de algunas deformaciones de que fue objeto luego la trayectoria del Libertador
Así informaron en Francia la muerte de José de San Martín
Adolph Gérard era el propietario de la casa que San Martín habitó en Boulogne-sur-mer durante poco más de un año y medio y en la cual murió. El general alquilaba un piso del edificio de la Grande Rue 105 –hoy propiedad de la República Argentina- en cuya planta baja residía el propio Gérard, abogado, periodista y por entonces director de la biblioteca de esa ciudad marítima del noroeste de Francia.

Gérard cultivó la amistad de San Martín en ese período y cuando éste murió auxilió a su hija y yerno en todos los trámites relativos a su sepelio. Días después, el 21 de agosto, publicó un extenso artículo en el diario local sobre la vida y la trayectoria político-militar de su ilustre inquilino.

Considerando que no se había escrito aún la historia de la Independencia Sudamericana y de sus protagonistas, y teniendo en cuenta también la inmediatez de esta publicación –hecha a tan sólo cuatro días de la muerte del general- cabe suponer que la fuente de los detallados conocimientos de que hace gala Adolph Gérard en su texto sobre la vida de San Martín era el mismo protagonista. De ahí su incalculable valor. Y por eso también la sorpresa ante la escasa atención que le prestaron posteriormente los estudiosos de la vida de San Martín a este texto, en el cual hay referencias a aspectos de su trayectoria que luego fueron reinterpretados, polemizados o silenciados por biógrafos supuestamente más “rigurosos” y documentados. Un caso es el de la famosa entrevista de Guayaquil. Gérard refiere lo allí discutido –no habla de secreto- y da por cierta –citando un párrafo- una famosa carta de San Martín a Bolívar -posterior a su célebre encuentro- que hizo correr ríos de tinta a los historiadores en una interminable polémica sobre su autenticidad.

“Aunque cinco años mayor que su rival de gloria, (San Martín) le ofreció (a Bolívar) su ejército –dice Gérard sobre la entrevista que tuvo lugar en Guayaquil el 22 de julio de 1822-, le prometió combatir bajo sus órdenes, lo conjuró a ir juntos al Perú, y a terminar allí la guerra con brillo, para asegurar a las desdichadas poblaciones de esas regiones el descanso que tanto necesitaban. Con vanos pretextos, Bolívar se negó. Su pensamiento no es, parece, difícil de penetrar: quería anexar el Perú a Colombia, como había anexado el territorio de Guayaquil. Para eso, debía concluir solo la conquista. Aceptar la ayuda de San Martín, era fortalecer a un adversario de sus ambiciones. Bolívar sacrificó por lo tanto sin hesitar su deber a sus intereses”.

Y sobre la que se conoce como “carta de Lafond” por el nombre del autor francés que primero la publicó completa, agrega Gérard: “De Lima misma, y con fecha del 29 de agosto, había anunciado a Bolívar sus designios en una carta mantenida secreta hasta estos últimos años, y que es como un testamento político (…): ‘He convocado, le decía, para el 20 de septiembre, el primer congreso del Perú; al día siguiente de su instalación, me embarcaré para Chile, con la certeza de que mi presencia es el único obstáculo que le impide venir al Perú con el ejército que usted comanda… No dudo de que después de mi partida el gobierno que se establecerá reclamará vuestra activa cooperación, y pienso que usted no se negará a una tan justa demanda’”.

Otro detalle interesante en el artículo del Impartial de Boulogne-sur-mer es la síntesis que hace Gérard del pensamiento político de San Martín, en términos que iluminan la futilidad de la discusión sobre el monarquismo del Libertador; no porque lo niegue, sino porque lo explica, al ponerlo en contexto: “Partidario exaltado de la independencia de las naciones, sobre las formas propiamente dichas de gobierno no tenía ninguna idea sistemática. Recomendaba sin cesar, al contrario, el respeto de las tradiciones y de las costumbres, y no concebía nada menos culpable que esas impaciencias de reformadores que, so pretexto de corregir los abusos, trastornan en un día el estado político y religioso de su país: ‘Todo progreso, decía, es hijo del tiempo’. (…) Con cada año que pasa, con cada perturbación que padece, la América se acerca más aún a esas ideas que eran el fondo de su política: la libertad es el más preciado de los bienes, pero no hay que prodigarla a los pueblos nuevos. La libertad debe estar en relación con la civilización. ¿No la iguala? Es la esclavitud. ¿La supera? Es la anarquía”.

Gérard nos deja también una descripción del aspecto y carácter de San Martín por aquel entonces. Cabe señalar que, dos años antes de su muerte, en 1848, su hija Mercedes lo convenció de posar para un daguerrotipo, por entonces toda una novedad. Esa es por lo tanto la única “fotografía” que tenemos de él: aquella en la cual está sentado y luce el cabello encanecido. Permite calibrar cuáles de los tantos retratos pintados de él son los más fidedignos.

Así describía Gérard a su inquilino: “El señor de San Martín era un bello anciano, de una alta estatura que ni la edad, ni las fatigas, ni los dolores físicos habían podido curvar. Sus rasgos eran expresivos y simpáticos; su mirada penetrante y viva; sus modales llenos de afabilidad; su instrucción, una de las más extendidas; sabía y hablaba con igual facilidad el francés, el inglés y el italiano, y había leído todo lo que se puede leer. Su conversación fácilmente jovial era una de las más atractivas que se podía escuchar. Su benevolencia no tenía límites. Tenía por el obrero una verdadera simpatía; pero lo quería laborioso y sobrio; y jamás hombre alguno hizo menos concesiones que él a esa popularidad despreciable que se vuelve aduladora de los vicios de los pueblos. ¡A todos decía la verdad!”.

Del relato de Gérard, emerge además una imagen diferente del ostracismo de San Martín, presentado por muchos de sus biógrafos como un período de oscuridad y silencio. Aunque, “menos conocido en Europa que Bolívar, porque buscó menos que él los elogios de sus contemporáneos”, dice Gérard, no era un exiliado ignoto: “En sus últimos tiempos, en ocasión de los asuntos del Plata [el bloqueo anglo-francés del Río de la Plata en tiempos de Rosas], nuestro Gobierno se apoyó en su opinión para aconsejar la prudencia y la moderación en nuestras relaciones con Buenos Aires; y una carta suya, leída en la tribuna por nuestro Ministro de Asuntos Extranjeros, contribuyó mucho a calmar en la Asamblea nacional los ardores bélicos que el éxito no habría coronado sino al precio de sacrificios que no debemos hacer por una causa tan débil como la que se debatía en las aguas del Plata”.

Este hecho –la lectura de una carta de José de San Martín en el parlamento francés en la cual el general les advertía de que no podrían doblegar al pueblo argentino- muestra no sólo que su presencia en Francia no era ignorada por las autoridades de ese país sino que él se mantuvo siempre atento a lo que sucedía en su Patria e intervino cada vez que pudo con los medios a su alcance en defensa de la independencia que había conquistado.

Fuente:
www.infobae.com

El Concejo Municipal distingue a docente de la UNR

Se trata de Teresita Terán quien fue declarada Ciudadana Distinguida. Por Claudio Pairoba * En una ceremonia presidida por la concejala An...