jueves, 3 de mayo de 2012

Noam Chomsky y las 10 Estrategias de Manipulación Mediática.



El lingüista Noam Chomsky elaboró la lista de las “10 Estrategias de Manipulación” a través de los medios

1. La estrategia de la distracción 
El elemento primordial del control social es la estrategia de la distracción que consiste en desviar la atención del público de los problemas importantes y de los cambios decididos por las elites políticas y económicas, mediante la técnica del diluvio o inundación de continuas distracciones y de informaciones insignificantes. La estrategia de la distracción es igualmente indispensable para impedir al público interesarse por los conocimientos esenciales, en el área de la ciencia, la economía, la psicología, la neurobiología y la cibernética.

“Mantener la Atención del público distraída, lejos de los verdaderos problemas sociales, cautivada por temas sin importancia real. Mantener al público ocupado, ocupado, ocupado, sin ningún tiempo para pensar; de vuelta a granja como los otros animales (cita del texto 'Armas silenciosas para guerras tranquilas)”.

2. Crear problemas y después ofrecer soluciones
Este método también es llamado “problema-reacción-solución”. Se crea un problema, una “situación” prevista para causar cierta reacción en el público, a fin de que éste sea el mandante de las medidas que se desea hacer aceptar. Por ejemplo: dejar que se desenvuelva o se intensifique la violencia urbana, u organizar atentados sangrientos, a fin de que el público sea el demandante de leyes de seguridad y políticas en perjuicio de la libertad. O también: crear una crisis económica para hacer aceptar como un mal necesario el retroceso de los derechos sociales y el desmantelamiento de los servicios públicos.

3. La estrategia de la gradualidad
Para hacer que se acepte una medida inaceptable, basta aplicarla gradualmente, a cuentagotas, por años consecutivos. Es de esa manera que condiciones socioeconómicas radicalmente nuevas (neoliberalismo) fueron impuestas durante las décadas de 1980 y 1990: Estado mínimo, privatizaciones, precariedad, flexibilidad, desempleo en masa, salarios que ya no aseguran ingresos decentes, tantos cambios que hubieran provocado una revolución si hubiesen sido aplicadas de una sola vez.
4. La estrategia de diferir
Otra manera de hacer aceptar una decisión impopular es la de presentarla como “dolorosa y necesaria”, obteniendo la aceptación pública, en el momento, para una aplicación futura. Es más fácil aceptar un sacrificio futuro que un sacrificio inmediato. Primero, porque el esfuerzo no es empleado inmediatamente. Luego, porque el público, la masa, tiene siempre la tendencia a esperar ingenuamente que “todo irá mejorar mañana” y que el sacrificio exigido podrá ser evitado. Esto da más tiempo al público para acostumbrarse a la idea del cambio y de aceptarla con resignación cuando llegue el momento.

5. Dirigirse al público como criaturas de poca edad
La mayoría de la publicidad dirigida al gran público utiliza discurso, argumentos, personajes y entonación particularmente infantiles, muchas veces próximos a la debilidad, como si el espectador fuese una criatura de poca edad o un deficiente mental. Cuanto más se intente buscar engañar al espectador, más se tiende a adoptar un tono infantilizante. Por qué? “Si uno se dirige a una persona como si ella tuviese la edad de 12 años o menos, entonces, en razón de la sugestionabilidad, ella tenderá, con cierta probabilidad, a una respuesta o reacción también desprovista de un sentido crítico como la de una persona de 12 años o menos de edad (ver “Armas silenciosas para guerras tranquilas”)”.

6. Utilizar el aspecto emocional mucho más que la reflexión
Hacer uso del aspecto emocional es una técnica clásica para causar un corto circuito en el análisis racional, y finalmente al sentido critico de los individuos. Por otra parte, la utilización del registro emocional permite abrir la puerta de acceso al inconsciente para implantar o injertar ideas, deseos, miedos y temores, compulsiones, o inducir comportamientos…

7. Mantener al público en la ignorancia y la mediocridad
Hacer que el público sea incapaz de comprender las tecnologías y los métodos utilizados para su control y su esclavitud. “La calidad de la educación dada a las clases sociales inferiores debe ser la más pobre y mediocre posible, de forma que la distancia de la ignorancia que planea entre las clases inferiores y las clases sociales superiores sea y permanezca imposibles de alcanzar para las clases inferiores (ver ‘Armas silenciosas para guerras tranquilas)”.
8. Estimular al público a ser complaciente con la mediocridad
Promover al público a creer que es moda el hecho de ser estúpido, vulgar e inculto…

9. Reforzar la autoculpabilidad
Hacer creer al individuo que es solamente él el culpable por su propia desgracia, por causa de la insuficiencia de su inteligencia, de sus capacidades, o de sus esfuerzos. Así, en lugar de rebelarse contra el sistema económico, el individuo se autodesvalida y se culpa, lo que genera un estado depresivo, uno de cuyos efectos es la inhibición de su acción. Y, sin acción, no hay revolución!
10. Conocer a los individuos mejor de lo que ellos mismos se conocen
En el transcurso de los últimos 50 años, los avances acelerados de la ciencia han generado una creciente brecha entre los conocimientos del público y aquellos poseídas y utilizados por las elites dominantes. Gracias a la biología, la neurobiología y la psicología aplicada, el “sistema” ha disfrutado de un conocimiento avanzado del ser humano, tanto de forma física como psicológicamente. El sistema ha conseguido conocer mejor al individuo común de lo que él se conoce a sí mismo. Esto significa que, en la mayoría de los casos, el sistema ejerce un control mayor y un gran poder sobre los individuos, mayor que el de los individuos sobre sí mismos.

Fuente:
http://www.gramscimania.info.ve

jueves, 26 de abril de 2012

La aparición de un cártel de citas.


Usada para definir actividades oscuras o ilegales, la palabra comienza a aparecer en el ámbito científico.

La metodología para confeccionar los índices de impacto de las revistas está en el tapete.

Por Phil Davis
Traducción por Claudio Pairoba

Desde un punto de vista económico, la autocita es la manera más fácil de estimular nuestras referencias. Todos los autores saben esto y citan sus propios artículos, sin importar cuan periférica sea su relación con el tema en cuestión. Los editores también saben esto, y a algunos los han atrapado coaccionando a los autores para que autociten a su revista científica. Otros editores han publicado “reviews” editoriales de los artículos publicados en sus propias revistas., enfocándose totalmente en artículos que han sido publicados en los últimos 2 años, la ventana de tiempo a partir de la cual se genera el factor de impacto.

Hay un precio que pagar por este comportamiento, especialmente cuando se hace en forma excesiva. Thomson Reuters, editores del Journal Citation Report (JCR, informe anual de citas de revistas), normalmente ponen en espera a aquellas revistas que tienen índices de citas excesivamente altos, de manera tal que ellos mueven el ranking de la revista entre otros títulos relacionados.

Hay otra táctica que es mucho más perniciosa y difícil de detectar. Es el cartel de citas.

En un ensayo de 1999 publicado por Science, “Scientifica Communication – A vanity Fair?”, George Franck nos advertía sobre la posibilidad de los carteles de citas – grupos de editores y revistas trabajando juntos para beneficio mutuo. Hasta el momento, este comportamiento no ha sido ampliamente documentado, sin embargo, cuando uno lo ve por primera vez, es sorprendente.

Cell Transplantation es una revista médica publicada por el Cognizant Communication Corporation de Putnam Valley, Nueva York. En los últimos años, su factor de impacto ha estado creciendo rápidamente. En el 2006, era 3482. En el 2010, se había duplicado a 6204.

Cuando uno se fija en cuáles son las revistas que Cell Transplantation cita, son dos las que se destacan notablemente: el Medical Science Monitor, and The Scientific World Journal. De acuerdo a JCR, ninguna de estas dos revistas habían citado a Cell Transplantation hasta 2010.

Después, en 2010, un artículo de revisión se publicó en el Medical Science Monitor citando 490 artículos, 445 de los cuales se referían a artículos publicados en Cell Transplantation. Todos los 445 trabajos hacían referencia a papers publicados en 2008 o 2009 – el período usado para obtener el factor de impacto 2010 para la revista. De las restantes 45 citas, 44 citaban al Medical Science Monitor, de nuevo haciendo referencia a artículos publicados en 2008 y 2009.

Tres de los cuatro autores de este trabajo ocupan puestos en el consejo editorial de Cell Transplantation. Dos son editores asociados, uno es el editor fundador. El cuarto es el CEO de una compañía de comunicación médica.

En el mismo año, 2010, dos de estos editores también publicaron un artículo de revisión en The Scientific World Journal citando 124 artículos, 96 de los cuales fueron publicados en Cell Transplantation en 2008 y 2009. De las restantes 28 citas, 26 hacían referencia a papers publicados en The Scientific World Journal en 2008 y 2009. Se empieza a ver un patrón. Así es como se ve: (ver foto adjunta).

Los dos artículos de revisión arriba descriptos contribuyeron con un total de 541 citas al cálculo del factor de impacto 2010 de Cell Transplantation. Eliminenlas y el factor de impacto de la revista cae de 6204 a 4082.

Los editores de Cell Transplantation han continuado con esta práctica durante todo el 2011, con dos reviews adicionales. El primero aparece en el Medical Science Monitor, con 87 citas de Cell Transplantation y 32 citas del Medical Science Monitor, todas de articulos publicados en 2009 y 2010. El segundo review aparece en The Scientific World Journal, y contiene 109 citas de Cell Transplantation y 29 citas de The Scientific World Journal, todas las cuales fueron publicadas en el mismo período ventana de 2 años del cual se obtendrá el factor de impacto 2011.

En 2011, los editores de Cell Transplantation también publicaron un artículo de revisión parecido en su propia revista, citando a una revista hermana más chica, Technology and Innovation, 25 veces – 24 de las cuales fueron publicadas en 2010. Las restantes citas hacen referencia a artículos de Cell Transplantation publicados en 2009 y 2010. El primer autor del artículo es el Editor en Jefe de Technology and Innovation, el último autor es coeditor de la revista.

Desde una posición estratégica, colocar artículos de autoreferencia en una revista amiga es una estrategia económica y efectiva si el objetivo es darle un empujón al propio factor de impacto . Por una tarifa de procesamiento del artículo de 1100 dólares (Medical Science Monitor), los editores pudieron de redireccionar 445 citas a su revista con el fin de contribuir al factor de impacto. Lo mejor de todo, esta clase de comportamiento es difícil de rastrear.

El JCR provee matrices de citas y “citados por” para todas las revistas que indexan, sin embargo, estos datos existen solo en su agregado y no están conectados con artículos específicos. Fue solo después de ver numeros grandes entre una larga lista de ceros que se me ocurrió que algo raro estaba pasando – eso y el dato de un científico preocupado. Identificar estos artículos requirió que yo hiciera una búsqueda especial de “citados por” en la Web of Science. Los datos están ahí, pero están lejos de ser transparentes.

La facilidad con la cual los miembros de un comité editorial fueron capaces de usar un cartel de revistas para influenciar el factor de impacto de su revista me preocupa sobremanera porque el costo de hacer eso es muy bajo, las ganancias son increíblemente altas, es difícil de detectar y la práctica puede facilitarse de manera muy sencilla por comité editoriales con miembros que se repiten o a través de acuerdos de cooperación entre ellos. Es más, los editores pueden proteger estos “reviews” de la revisión por pares si están rotulados como “material editorial”, como algunos lo están. Es la estrategia perfecta para trampear al sistema.

Por todas estas razones, estoy particularmente preocupado porque de todas las estrategias que todos los editores inescrupulosos usan para incrementar los rankings de sus revistas, la formación de carteles de citas es la que podría dañar a las citas como un indicador científico. Debido a la forma en que opera, tiene el potencial de crear una burbuja de citas muy, pero muy rápido. Si Ud. no está de acuerdo con la forma en que algunos editores están utilizando los carteles de citas, su forma de pensar puede cambiar en uno o dos años cuando su revista comience a quedar rezagada con respecto a sus competidores.

A diferencia de la autocitación, la cual es muy fácil de detectar, Thomson Reuters no tiene un algoritmo para detectar los carteles de citas, ni una política declarada para mantener a raya a este comportamiento turbio.

Una forma de detectar los artículos culpables sería examinar el porcentaje de referencias que contribuyen al factor de impacto y que están dirigidas a una sola revista. Desde el punto de vista computacional, esta puede ser la forma más sencilla. Determinar cuánta influencia es excesiva y bajo qué circunstancias serán los desafíos más importantes.

Los editores científicos necesitan discutir como manejar este tema. Si las normas disciplinarias y el decoro no pueden controlar este tipo de comportamiento, la amenaza de ser eliminado de las listas del JCR puede ser necesaria.

Fuente:
http://scholarlykitchen.sspnet.org/

martes, 17 de abril de 2012

Premio Nobel: ¿la historia vuelve a repetirse?

Un encendido editorial del diario El País hace referencia al reciente escándalo desatado tras el anuncio del premio Nobel en Medicina o Fisiología.

Mentir no es ciencia

Algunos científicos consiguen el Premio Nobel con las investigaciones de sus subordinados

Las maniobras más dañinas para la ciencia no son las más evidentes —fraude o manipulación—, sino las que llevan tanto tiempo enquistadas entre los radios del sistema que se han vuelto invisibles. Una de ellas consiste en ignorar al descubridor para atribuir a su jefe el descubrimiento. Por lo conocido esta semana, la práctica ya era corriente hace 60 años, cuando se concedió el Premio Nobel de Medicina al norteamericano Selman Waksman por el hallazgo de la estreptomicina; y lo seguía siendo hace unos meses, cuando se le otorgó al francés Jules Hoffmann por el esclarecimiento de la inmunidad innata, la clave hacia una generación radicalmente nueva de medicamentos antimicrobianos. En ambos casos, el trabajo y las ideas de los jóvenes investigadores que diseñaron y ejecutaron los experimentos —Bruno Lemaitre en el caso del francés— fueron usurpados por sus jefes, Waksman y Hoffmann, que acabaron recibiendo la mayor distinción científica por unos avances que ni habían previsto ni ayudaron a conquistar; unas investigaciones a las que se habían opuesto, y que ni siquiera conocieron hasta que llegó la hora de estampar su firma en el artículo y dejar que su nombre sonara en Estocolmo.

Son habituales y hasta esperables las polémicas por la concesión de los Premios Nobel. Resulta dificultoso y, a veces, imposible reducir a un nombre propio los créditos de una investigación compleja en la que han intervenido varios laboratorios, por lo general compitiendo entre sí. Una opinión extendida, que se ha vuelto a oír estos días en apoyo de Hoffmann, sostiene que estas rencillas no son más que producto del resentimiento de los malos perdedores, y que aventarlas en la prensa solo sirve para manchar la imagen de la ciencia ante el público lego.

Pero estos casos son de naturaleza distinta a las rencillas habituales. Que un jefe usurpe el mérito de un joven científico de su propio laboratorio no es una disputa por la prioridad, sino una vileza. También es una mentira, y un tipo de comportamiento incompatible con la ética científica y su compromiso con la búsqueda de la verdad. Premiarlo con un Nobel ya parece un sarcasmo.Y silenciarlo es justo la receta para que se perpetúe, dañando no ya la imagen de la ciencia, sino los mismos principios que la hacen avanzar.

Fuente:
http://elpais.com/elpais/2012/03/10/opinion/

Material adicional

Material adicional 2

jueves, 12 de abril de 2012

Los genes no son la bola de cristal para el riesgo de enfermedades.

Descifrar las instrucciones genéticas de una persona no predice su futuro médico.
El borrador inicial del genoma humano se presentó en el año 2000.

Por Tina Hesman Saey
Traducción por Claudio Pairoba

CHICAGO — El libro de instrucciones genéticas para los seres humanos es tan pobre para predecir enfermedades como lo es un almanaque para predecir el clima, es lo que concluye un prominente investigador en cáncer a partir de un análisis de los datos genéticos obtenidos de miles de pares de gemelos idénticos.

Una revolución tecnológica ha hecho que descifrar los libros con instrucciones genéticas, llamados genomas, sea más rápido y barato que nunca. Muchos científicos han tratado de vender al genoma como una bola de cristal para espiar la salud futura de la gente. Pero Bert Vogelstein de la Facultad de Medicina en la Universidad John Hopkins se preguntaba cuanta información podía obtenerse a partir del conocimiento de la constitución genética de una persona.

Así que Vogelstein y sus colegas juntaron registros médicos de 53.666 pares de gemelos de todo el mundo. Gemelos idénticos comparten su composición genética, de modo que al examinar la historia clínica de uno de ellos podría revelar las complicaciones médicas que el otro gemelo puede tener que enfrentar. Los investigadores no descifraron los genomas de ninguno de estos gemelos pero usaron los datos médicos para desarrollar una fórmula matemática que predijera el riesgo máximo y mínimo de padecer 24 enfermedades diferentes, incluyendo varios tipos de cáncer, enfermedades cardíacas, diabetes y enfermedad de Alzheirmer.

En todos los casos excepto 4 enfermedades, los datos genéticos no pudieron determinar quien tiene mayores probabilidades de contraer alguna de estas patologías en la mayoría de los casos, informó Vogelstein el 2 de Abril en la reunión anual de la Asociación Norteamericana para la Investigación en Cáncer. Los resultados también fueron publicados en la edición online de Science Translational Medicine.

“Básicamente, uno todavía puede tener un mejor diagnóstico poniendo a un individuo en la balanza y preguntándole si es fumador o no,”dice Walter Willet, un epidemiólogo en la Facultad de Salud Pública de Harvard, quien no formó parte del estudio.

De acuerdo a los criterios del equipo, un resultado se consideró positivo si muestra que una persona tiene un 10% o más de posibilidades de desarrollar una enfermedad determinada. Los investigadores encontraron que para la mayoría de estas enfermedades, solo una pequeña fracción de gente tendría un resultado positivo.
Por ejemplo, para el cancer de ovarios, solo entre 1 y 23% de las mujeres que desarrollarán eventualmente este tipo de cáncer tendrían un resultado positivo. Así que las mayoría de las mujeres que tendrán cáncer de ovarios hubieran recibido un resultado negativo.

Eso se debe a que la genética es solo un parte de la historia cuando se trata de la salud. El estilo de vida, el ambiente y el azar juegan un rol más importante que los genes, o el trabajo con los genes, para causar o proteger de una enfermedad.

Pero para el pequeño número de personas que sí reciben un resultado positivo, esa información puede ser sumamente importante. “Incluso si la mayoría de los individuos reciben tests negativos, uno no sabe hasta que se hace la prueba”, dice George Church, un genetista de Harvard y fundador del Proyecto de Genoma Personal, un esfuerzo para catalogar genomas y relacionar variación genética con características individuales. “Es similar a un seguro contra incendios. Uno no sabe por adelantado si pertenece a la mayoría que no perderá su casa.”

Los médicos, especialmente aquellos que tratan el cáncer, ya han pasado por encendidos debates sobre el valor del testeo genético, manifiesta Olufunmilayo Olopade, director de la Clínica para Riesgo de Cáncer, de la Universidad de Chicago. Cuanto más sepan los médicos y los científicos acerca de los genomas, mejor podrán aconsejar y tratar a los pacientes, expresó.

Pero Vogelstein dice que tanto él como sus colegas no están haciendo un juicio de valor acerca de la utilidad del secuenciamiento genético. “Lo que estamos tratando de hacer es, simplemente, hacer un balance de la situación”, dijo.

Fuente:
www.sciencenews.org

viernes, 30 de marzo de 2012

Las colonias de abejas y abejorros descienden por el uso extendido de pesticidas.

Dos investigaciones han analizado las consecuencias del empleo de productos químicos, en concreto el insecticida neonicotinoide, en los polinizadores. Los resultados muestran una merma en sus poblaciones.

El uso extendido de pesticidas daña los abejorros (género Bombus) y las abejas (Apis mellifera). Imagen: Science/AAAS
El uso extendido de pesticidas daña los abejorros (género Bombus) y las abejas (Apis mellifera). Imagen: Science/AAAS
SINC | 29 marzo 2012 20:01

El uso extendido de pesticidas daña los abejorros (género Bombus) y las abejas (Apis mellifera). Aunque todavía no está clara la manera en que estos químicos perjudican a los polinizadores, su uso disminuye las poblaciones.

La revista Science publica esta semana dos estudios que han analizado los efectos de los insecticidas neonicotinoides por su contribución al problema de colapso de colonias (CCD por sus siglas en inglés).

Este tipo de pesticidas, que ataca el sistema nervioso central de los insectos, se introdujo a principios de los años 90 y ya se ha convertido en uno de los más usados en cultivos de todo el mundo.

En el primer estudio, investigadores de la Universidad de Stirling (Reino Unido) expusieron colonias de abejorros (Bombus terrestris) a niveles bajos de neonicotinoide. Posteriormente, estudiaron su comportamiento durante seis semanas bajo condiciones naturales.

Después de pesar los nidos, la cera, la miel, el polen y hasta las abejas, los resultados mostraron cómo las colonias eran entre un 8% y un 12% más pequeñas que las de control. Además, las tratadas con químicos produjeron un 85% menos de ejemplares reina.

Abejas con microchips en el tórax
La segunda investigación, realizada en el Institut National de la Recherche Agronomique (Francia), se centró en abejas. Los científicos pusieron microchips de radiofrecuencia en el tórax de los insectos para estudiar su comportamiento natural a la partida y regreso a las colmenas.

Las abejas tratadas con productos químicos fueron entre dos y tres veces más propensas a morir mientras se encontraban fuera de su nido. Los investigadores deducen que el pesticida interfirió en sus sistemas de orientación para regresar a la colmena.

Además, el mismo grupo de investigación desarrolló un modelo matemático para simular la dinámica de las poblaciones. Cuando introdujeron las consecuencias de los efectos de los pesticidas en abejas, el resultado predijo una caída en las poblaciones de abejas que sería difícil recuperar.

Referencia bibliográfica:
Whitehorn, P.R.; O’Connor, S.; Wackers, F.L.; Goulson, D. “Neonicotinoid pesticide reduces bumble bee colony growth and queen reproduction”. Science: 1-3, 29 de marzo de 2012. DOI: 10.1126/science.1215025.
Henry, M.; Beguin, M.; Requier, F.; Rollin, O.; Odoux, J.F.; Aupinel, P.; Aptel, J.; Tchamitchian, S.; Decourtye, A. “A common pesticide decreases foraging success and survival in honey bees”. Science: 1-4, 29 de marzo de 2012. DOI: 10.1126/science.1215039.

Fuente:
www.agenciasinc.es

miércoles, 21 de marzo de 2012

Ansiosamente esperan a los científicos para las charlas de Rio+20.


La próxima cumbre de los pueblos en Rio de Janeiro busca consenso para lograr un desarrollo sostenible.

La reunión se desarrolla 20 años después de la histórica cumbre de Rio en 1992.

Aisling Irwin
Traducción por Claudio Pairoba

Los defensores de la ciencia sabrán hoy si han logrado conseguir que se preste más atención a la ciencia y la tecnología en las negociaciones que conducirán al encuentro de Rio+20 a mitad de año (20-22 de Junio). Las delegaciones nacionales comienzan hoy las discusiones informales (19-23 de Marzo) sobre el texto que constituirá el resultado de la Conferencia de las Naciones Unidas para Desarrollo Sustentable (Rio+20).

La comunidad científica y tecnológica mundial ha estado tratando de manera sostenida de lograr acuerdos en asuntos que considera cruciales para tener un resultado exitoso en la reunión que se realizará en Junio en Brasil, a la cual al menos 118 Jefes de Estado han prometido asistir. Rio+20 busca encontrar un camino hacia el desarrollo sustentable a través del desarrollo de una economía verde y un marco institucional conducente.

Primera en la lista de actividades de la comunidad científica está la incorporación en el texto de una sensación de urgencia acerca de los problemas ambientales y de desarrollo, así como un reconocimiento de que hay “límites planetarios”  - una idea que ha estado cobrando impulso en muchos lugares pero que no se incluye en el borrador actual. Los idea de “límites planetarios” fue expuesta por Johan Rockström, director ejecutivo del Stockholm Resilience Centre, en la revista Nature 2009, y se refiere a los límites al uso de 9 de los recursos del planeta, los cuales van desde actividades que generan dióxido de carbono hasta el uso de la tierra, la carga de la atmósfera con aerosoles y el uso de los océanos.

Rockström ha propuesto un máximo numérico para cada una de ellas, más allá del cual el sistema puede estar en riesgo de colapsar, poniendo en riesgo a comunidades humanas.

“Los límites planetarios introducen esta idea de que el planeta tiene limitaciones y que no podemos continuar usando sus recursos indefinidamente,” dice Peter Bates, oficial científico del Consejo Internacional por la Ciencia (ICSU por sus siglas en inglés) – el cual, junto con la Federación Mundial de Organizaciones de Ingeniería, ha estado manejando el Grupo Mayor de ciencia y tecnología, que ha sido parte formal de las discusiones.

“Esperamos meternos en el párrafo de apertura. El borrador es bastante débil en cuanto a la urgencia.”

Pero la idea es controvertida entre los científicos, algunos de los cuales han cuestionado el rigor de los datos y las bases para las cifras que se han sugerido para cada “límite”. “Es una idea irresistible, yo respaldaría el concepto”, manifestó David Molden, director general del Centro Internacional para el Desarrollo Integrado de la Montaña en Nepal y anterior directivo del Instituto Internacional para el Manejo del Agua en Sri Lanka. “Pero existe el peligro, con algunos límites, de poner una cifra para su uso. No es que esos números hayan sido conocidos por largo tiempo y debatidos, es una nueva idea. Por ejemplo, uno puede extraer menos agua si la maneja mal de lo que puede extraer si la maneja bien – así que el límite no es estricto.”

El Grupo Mayor también está presionando para que haya cuerpos consultores científicos independientes en las Naciones Unidas, y en los gobiernos regionales y nacionales, al igual que un mecanismo global que coordine la ciencia internacional e interdisciplinaria que se ocupa del desarrollo sostenible. “La gente siente que la ciencia está funcionando. Pero con los mecanismos correctos trabajando podrían obtener más de la ciencia,” Bates comentó a SciDev.Net.

El grupo también desea ver que los gobiernos nacionales se pongan de acuerdo en cuanto a destinar más dinero a la investigación para el desarrollo sustentable internacional. Y quiere que Rio+20 acuerde desarrollar indicadores integrados viables desde el punto de vista científico que vayan más allá del PBI (producto bruto interno) – para incluir dimensiones sociales y ambientales, y posiblemente la creación de una fuerza de tareas global para hacer avanzar el tema.

El primer borrador del acuerdo – el borrador cero, dado a conocer en Enero – ha generado grandes críticas por ser demasiado blando, aunque Naciones Unidas ha respondido diciendo que fue deliberadamente escrito como un marco dentro del cual se pudiera construir.

Fuente:
www.scidev.net
 

miércoles, 14 de marzo de 2012

Psicoanálisis y neurobiología.

Un grupo integrado por psicoanalistas y neurobiólogos encara un proyecto de comparación entre las distintas metodologías de tratamiento (psicoterapia y psicofarmacología), empezando por la depresión.

Por Leonardo Moledo
/fotos/20120314/notas/na22fo01.jpg
Sergio Rodríguez y Roberto Rosler.

–Cuénteme en qué consiste el proyecto.
Sergio Rodríguez: –Un grupo de psicoanalistas, con la colaboración de un neurólogo y un psiquiatra reconocidos en la Argentina, empezamos a trabajar en un seminario los cruces entre psicoanálisis y neurobiología. Partíamos de la base de que iba a haber lugares de encuentro y lugares de desencuentro. En medio de eso conocimos a Roberto Rosler y nos fuimos metiendo cada vez más en el tema. Tenemos ahora la idea de profundizar esa investigación. En ese sentido, tenemos la idea básica de hacer un estudio comparativo entre pacientes deprimidos neuróticos para poder comparar los efectos de tratamientos llevados adelante sólo con psicofármacos con otros llevados adelante sólo con psicoanálisis y con algunos en que el tratamiento sea mixto. Ese es el punto en el que estamos ahora.

–¿Y qué es lo que quieren averiguar, desde el punto de vista de la neurobiología?
Roberto Rosler: Lo interesante desde el punto de vista neurobiológico sería poder comprobar que el efecto de un psicofármaco se equipara con el efecto de los tratamientos por la palabra; o sea, que los cambios que se producen a nivel neuronal por un comprimido pueden lograrse con un tratamiento psicológico (con la enorme diferencia de que el tratamiento por la palabra tiene muchos menos efectos colaterales). Si lo pensamos bien, ésta no es una idea muy moderna ni muy descabellada. Porque, en definitiva, ¿qué es la educación en sí misma? El educador todos los días está modificando el sistema nervioso central de sus alumnos al modificar las conexiones. Lo que nosotros queremos con este trabajo es certificar a través de distintos dispositivos que un buen tratamiento psicoterapéutico puede producir el mismo efecto sináptico que uno farmacológico.

–El problema es que el sistema nervioso sigue siendo una caja negra... En definitiva, sabemos poquísimo.
R. R.: –Sí. El campo de la neurobiología es como la noche: lo que más se ve son las estrellas, pero lo que más hay es oscuridad. Por eso nosotros comenzamos analizando la depresión, en la cual ya sabemos que hay ciertas áreas que tienen determinado tipo de trastorno. Sobre esas áreas podemos ver el antes y el después.

–¿Y no hay un problema con el sujeto experimental?
S. R.: –Efectivamente: es el problema más grande con el que nos encontramos. Le doy un ejemplo: encontraron que en los bebés se empiezan a producir cambios en el aparato fonatorio a partir de los siete u ocho meses, que los sacan del grito para empezar a meterlos en una suerte de proto-habla direccionada. A nosotros nos resultaría interesante descubrir cómo es que en ese punto las palabras de los otros empiezan a incidir para que el bebé empiece a producir sus propias palabras. Lo ideal sería pescarlo en el propio sistema neuronal. Hay métodos que, de hecho, permiten conservar microscópicamente y en movimiento muchas de esas cuestiones. Lo que ha pasado en el terreno de la neurobiología en los últimos diez años es una revolución sin precedentes...
R. R.: –Sí. Los cambios tecnológicos han permitido hacer prácticamente una anatomía y una neurofisiología en vivo. Esto permite observar cuestiones que antes sólo se podían ver en animales experimentales...
S. R.: –Y ahí está la respuesta a su pregunta. Nosotros tenemos que poder trabajar con una población que esté dispuesta. Los chiquitos de siete u ocho meses que le decía antes no pueden ser metidos en una resonancia magnética funcional. Por eso apuntamos a trabajar con personas mayores, en centros hospitalarios donde la gente se preste a experimentos que saben que no son dañinos y que pueden ser imprescindibles para el desarrollo científico.

–¿Qué es neurobiológicamente la depresión?
R. R.: –En realidad, hablar de la depresión desde el punto de vista neurobiológico es reduccionista. Pero lo que se ha observado en los pacientes con depresión es que hay alteraciones estructurales en el hipocampo. Se producen cambios neuroquímicos en las neurotrofinas, moléculas que aumentan el trofismo del sistema nervioso central. Una de las teorías actualmente en boga supone que el depresivo, antes de serlo, ha estado en una situación de estrés muy prolongada que lo ha llevado a una disminución de las neurotrofinas. En general, lo que se ha visto es que el abordaje neuroquímico y psicofarmacológico lo que intenta es aumentar estas neurotrofinas para aumentar el hipocampo. Un ejemplo de esto, extremo por cierto, es el estrés post-traumático, que se puede ver en los veteranos de la guerra del Golfo en Estados Unidos. En realidad, hay más muertos por suicidio después de la guerra que en el campo de batalla. Lo que se ve es que la estructura del hipocampo, que también está asociada con la memoria, está atrofiada y no funciona. Otra estructura, relacionada con la memoria inconsciente, emocional, de valencia muy negativa, está muy activada. Esto lleva a una situación de estrés extremo en la que no se puede recordar cuál es la verdadera causa del estrés. De todos modos, reducir la depresión a eso deja afuera muchas cosas.
S. R.: –Quisiera agregar algo. El trabajo con los psicofármacos tiene un problema: hay un momento en que el paciente empieza a salir de la depresión y, aunque parezca mentira, ése es el momento más peligroso. Porque en ese momento no ha perdido sus ideas suicidas pero, en cambio, físicamente está en condiciones de pasar al acto. Muchos suicidios de depresivos, de hecho, se producen no en el momento más grave de la depresión, sino cuando están saliendo. Por eso el trabajo con la palabra también es importante. Yo no niego el valor de los antidepresivos, pero creo que hay que tener muchísimo cuidado.

–¿Cómo es el trabajo concreto para ver los efectos de la curación por la palabra?
S. R.: –En primer lugar, los psicoanalistas tenemos que hacer una medición clínica (observando cómo esa persona habla de sí misma). El deprimido tiende a hablar muy mal de sí mismo, y en la medida en que empieza a salir eso cambia, desde el punto de vista neurobiológico...
R. R.: La idea es que ciertas estructuras que, según se observa en la resonancia magnética funcional, modifican su metabolismo y su irrigación, luego del tratamiento por la palabra se normalizarían del mismo modo en que se normalizan luego del tratamiento psicofarmacológico. Esto es lo que vamos a buscar en nuestro trabajo.
S. R.: –Esto tiene que ver con algo muy novedoso: la investigación científica traslacional. Son investigaciones básicas que tienen una aplicación muy veloz...

–¿Cómo se aplicarían?
S. R.: –Bueno, mi hipótesis es que en los deprimidos graves es mucho más positivo trabajar con la combinación de psicofármacos y psicoterapia que trabajar sólo con una o con la otra. Si nosotros pudiéramos demostrar eso, se armaría algo muy positivo muy rápidamente. Por ejemplo, el psicoanálisis tiene fama, bastante bien ganada, de ser muy lento en su trabajo. Ahora bien: si lo combinamos con el psicofármaco, puede producir efectos muy beneficiosos muy rápidamente. Se podría salir mucho más rápidamente de la crisis.

–¿Y cómo va a ser el trabajo concreto?
R. R.: –La idea es empezar con estos tres grupos (los deprimidos bajo psicoanálisis, los deprimidos bajo psicofármacos y los deprimidos bajo tratamiento mixto), hacer una resonancia de inicio y luego, cuando los pacientes de los tres grupos han llegado a la mejoría clínica, hacer una resonancia de control. Una cosa que creo que es importante desde el punto de vista filosófico es que ya desde el barroco comienza una utopía de la medicina que consiste en lograr la completa visibilidad de la enfermedad. Esta completa visibilidad de la enfermedad, desde el positivismo, se centró en la enfermedad y dejó de lado al enfermo (al mismo tiempo que bastantes cuestiones sociales, psicológicas y antropológicas).

–Bueno, dio un resultado fabuloso...
R. R.: –No estoy de acuerdo con eso. Yo creo que dio un resultado fabuloso, pero sólo en algunos aspectos. Si usted hoy en día entra a un consultorio, a veces lo que necesita es contención y afecto.

–El tema de la atención rápida y “des-humanizada” tiene que ver con la expansión gigantesca de la medicina, que se convirtió en una medicina de masas.
R. R.: Sí, es cierto. Pero eso no habilita al médico a abandonar estas premisas. Yo cuando estoy como paciente sentado del otro lado del mostrador, no quiero que traten mi próstata: quiero que traten a Roberto Rosler como un ser humano con todos sus miedos, sus preocupaciones, sus problemas. Porque cuando uno está enfermo entran a jugar un montón de cosas que van mucho más allá del órgano en sí mismo.

Fuente:
www.pagina12.com.ar

El Concejo Municipal distingue a docente de la UNR

Se trata de Teresita Terán quien fue declarada Ciudadana Distinguida. Por Claudio Pairoba * En una ceremonia presidida por la concejala An...