Mostrando entradas con la etiqueta Reflexiones. Mostrar todas las entradas
Mostrando entradas con la etiqueta Reflexiones. Mostrar todas las entradas

jueves, 30 de mayo de 2013

Escenas de la vida lacaniana.

El cine ha sido más que un placer para Lacan. También fue una fuente para nutrir su método terapéutico. Un libro retoma sus filmes preferidos, notas, e interpreta por qué la ficción cumple un papel clave en el diván.

Por Martina Menzio


Escenas de la vida lacaniana

Un hombre intenta salir de una habitación con demasiado peso en sus espaldas: arrastra dos pianos de cola, dos burros moribundos y a una dupla de eclesiásticos, sujetos a una cuerda. Esta escena surrealista que pertenece a la película del español Luis Buñuel Un perro andaluz , es una de las tantas referencias cinematográficas a las que alude Jacques Lacan (en este caso para hablar de identificación) y que pueden rastrearse a lo largo de los seminarios, clases y conferencias que abonaron el campo del psicoanálisis, y que el psicoanalista y realizador cinematográfico Carlos Gustavo Motta acaba de condensar en el libro Las películas que Lacan vio y aplicó al psicoanálisis (Editado por Paidos). Motta, que además es doctor en Psicología (Universidad del Salvador) y miembro de la Escuela de la Orientación Lacaniana, se detiene en cada comentario cinematográfico significativo de Lacan, en la búsqueda por señalar los aportes que el cine ha dado al campo de la psicología y viceversa.

Se trata de una relación intrínseca entre dos lenguajes que Motta investiga y estudia desde hace años, a sabiendas que “se debe leer y escribir en la imagen” y que plasma en el seminario sobre cine y psicoanálisis que dicta desde 2004, y en los dos cortometrajes que lo tienen como realizador. El primero Iconos, de qué estará hecho el mañana (finalista de Telefé Cortos en 2004), y el segundo, cuyo título es homónimo a este libro se convirtió en la antesala de esta investigación. Su ensayo –asegura Motta–, es “una de las investigaciones posibles a las múltiples alusiones que tanto Lacan como Freud aventuraron a distintas ideas que circularon en otras dimensiones médicas, políticas, teológicas, filosóficas y científicas, desde los antiguos hasta sus contemporáneos”. Apenas una posibilidad. Porque si algo entiende el psicoanálisis es que no hay verdades absolutas, ni lecturas ubicuas. Como los testigos alrededor de un crimen que se muestra en Rashômon (1950) la película del japonés Akira Kurosawa, a cuya lógica alude Lacan en una clase dictada en 1962: “cada uno dará su palabra de lo que dice asegurando que es la verdad y sólo la verdad. Su verdad, claro”.

Así, ahora Motta se niega a “interpretar” o “psicoanalizar” las películas que convoca en su libro, y esquiva las posibles discusiones inertes. “Para un realizador cinematográfico, su obra de arte se encuentra en el propio lenguaje. Un filme implica comprenderlo, independientemente de su grado de narratividad. Una película comunica un sentido posible y justamente por eso es un medio de comunicación, un lenguaje. Queda claro que en la enseñanza de Freud y de Lacan ambos se servían de otras disciplinas para ampliar sus conceptos. Y entiendo que así como el psicoanálisis ha influido en el cine, es el cine que debe reflexionar y desarrollar su inscripción en la historia del pensamiento. Pero los guiones de las películas que buscan explicar lo psíquico se construyen con un método seudocientífico que trasladado a secuencias fílmicas, sólo provocan en el espectador un sentimiento de ridículo o bien una sensibilidad garantizada”, reflexiona Motta y trae un ejemplo que cita en su libro sobre una experiencia del realizador argentino Jorge Prelorán, en la que en pleno fervor del ‘cine debate’ alguien comenta acerca de la “toma de peso de la sombra sobre el alma en conflicto” y él responde que “esa es la única luz que tenía para dirigir en ese lado, y por eso la secuencia había salido así”.

Por el contrario, el trabajo de Motta, también presidente del Capítulo de Psicoanálisis y Cine de la Asociación Argentina de Salud Mental, intenta trasladar las imágenes a los conceptos psicoanalíticos para alimentar la teoría y la práctica del campo. “Retransformar diversas problemáticas de nuestro tiempo para convertirlos en interrogantes válidos acerca de lo que puede ser un sujeto, es decir alguien con otro. De captar una realidad posible, tal como Freud puede hacerlo además a lo largo de sus historiales clínicos, imposible de fijar en un patrón estándar”, comparte. Así, el lector que se aventure en su investigación no se topará con explicaciones sobre el qué y el porqué de cada escena que forman parte de las más de veinte películas que llaman la atención del autor y que desglosa al final de su ensayo, a modo de fichas técnicas ordenadas cronológicamente por año en el que se vieron en la pantalla. Un perro andaluz , la primera en la que colaboró Salvador Dalí (1929); Monsieur Verdoux , del británico Charles Chaplin (1947); La ventana indiscreta , de Alfred Hitchcock (1954); Psicosis , del mismo director (1960); Háblame de amor , de Giorgio Simonelli (1961); Satyricón , de Federico Fellini (1969) o El imperio de los sentidos , de Nagisa Oshima (1976), sólo por nombrar algunas de las que componen el conjunto de filmes elegidos por Lacan para abordar.

Imágenes resignificadas
Filmada con colaboración indirecta de su amigo Salvador Dalí en 1952, El , otra de las películas de Buñuel citadas por Lacan en sus clases (además de Viridiana ) constituye un completo retrato sobre la paranoia. Lacan la proyectó entre sus alumnos y la recomendó a sus colegas, y solía decir que si uno quería saber todo acerca de la neurosis obsesiva debía leer el caso de “El hombre de las ratas” de Freud, pero si se pretendía entender la paranoia y los celos no tenía que perderse esta película. Por otro lado, Nunca es domingo , de Jules Dassin es citada en una clase que Lacan impartió el 6 de julio de 1960 para explicar la articulación tirante que existe entre la ética y el propio deseo. “En la película, el personaje (…) toma una copa para marcar el exceso de su entusiasmo y de su satisfacción y la estrella contra el suelo. Cada vez que se produce uno de estos estrépitos, vemos que la caja registradora se agita frenéticamente. Esta caja fuerte define muy bien la estructura con la que nos vemos. Lo que hace que pueda haber deseo humano, que ese campo exista, es la suposición de que todo lo que sucede de real es contabilizado en algún lado”.

De otras películas se sirvió Lacan para hablar del rol del psicoanalista y sumergirse en dos conceptos fundamentales de esta disciplina, “la transferencia” y la “contratransferencia” (aunque no era una palabra que usara Lacan, que prefería hablar de “mala palabra”, para referirse a los efectos que puede provocar el paciente en el analista). Lacan comprende que al “encanto” que debe producir el profesional puede convertirse en un “inconveniente de la praxis”. Y para ello alude al modo en el que se presenta el Dr. Fred Richdmond en Psicosis , de Alfred Hitchcock o el médico psiquiatra, especialista en realizar lobotomías, John Cukrowicz (interpretado por Montgomery Clift) en De repente, el último verano , el drama dirigido por Joseph Mankiewicz y guionada por Tennessee Williams. “Ser un esclarecedeor de enigmas no es resolverlos de manera directa, de un solo golpe, sino de un modo donde se establece la relación entre la apariencia engañosa (o el contenido manifiesto, en términos de Freud) y la verdad acerca de lo que puede ocurrir. Ser un esclarecedor señala el proceso del desciframiento, no sólo su resultado”, comparte Motta, llevando claridad a los malentendidos que pueden aparecer al inicio de un tratamiento psicoanalítico.

La presencia del otro
“El encanto –analiza Motta– no está mal. Incluso es lo esperado por una persona o por una obra. Ese encanto provoca y debe hacerlo. En cada disciplina también tiene sus riesgos. El cine puede caer en la vulgaridad o en la obscenidad y deja de ser un encanto. Es cuando el psicoanálisis puede transformar ese vínculo ‘encantador’ llamado transferencia en otro: la contratransferencia. Pero no se trata de no aplicarla sino que se trata de que ese vínculo no se transforme en un abuso de poder como muchas veces el cine quiere mostrar, una imagen perturbadora de algún tratamiento o la ineficacia del psicoanálisis o de la figura del analista”. En otras palabras, el analista en su primera impresión con el analizante no sólo debe detentar un saber acerca del motivo de consulta sino que eso debe acompañarse en todo momento con su posición amable. Pero la misma connotación de “encantador” encierra el concepto de sugestión del cual debe apartarse y del cual el cine siempre ha cuestionado. ¿O no es un encanto el personaje que Barbra Streisand compone como psicoanalista en El príncipe de las mareas y es de la más absoluta aberración en cuanto a su aplicación en el dispositivo psicoanalítico?, interpela el psicoanalista argentino. Por su parte la ópera prima de Alain Resnais Hiroshima mon amour , (de 1959) ayuda a Lacan a graficar la posibilidad de elaboración de los duelos y sobre ella dirá que “es una historia muy adecuada para mostrarnos que cualquier alemán irreemplazable puede encontrar inmediatamente un sustituto perfectamente válido en el primer japonés que aparezca a la vuelta de la esquina”.

El cine es imagen a imagen en movimiento, y desde ese lugar es una cárcel del goce, como un cuadro, que remarca lo inaprensible de la mirada, y también su límite. ¿Pero da lo mismo cualquier construcción de la ficción? Probablemente no: estará atravesada por nuestros fantasmas y de la constitución particularísima de nuestro Yo. Además dependerá de la verosimilitud lograda con aquello inefable: la verdad, tal como la entiende Lacan. En el escrito, que forma parte del último capítulo del ensayo de Motta, el célebre psicoanalista no se priva de elogiar al director francés Benoît Jacquot, creador prolífico de películas como El asesino musical (de 1975, que vio la luz un año antes del documental que realizó con el propio Lacan y que se emitió dos veces en televisión con el nombre Jacques Lacan: la psychanalyse , –1974–). “Benoît Jacquot, relata Lacan, al tener talento, hace del fantasma la verdad. Porque el talento consiste en eso: dar en el blanco (…) Se dice que un arte está concebido para gustar: es su definición pero no es suficiente en el cine: hay que ser convincente”.

Como explica Motta si pensamos que el concepto de fantasma remite a “algo más íntimo y más comprometido con nuestras propias ficciones que nos hacen ver por momentos que son verdades únicas e irrebatibles. La necedad de una frase fantasmática puede convertirse en otra que nos permita saber que hacer en un momento cuando ya no teníamos esperanza alguna de continuar. Desalentados por nuestras propias miserias neuróticas. El cine no es quien pueda ayudar a entender nuestra constitución subjetiva, en cambio sí un filme en particular, aquel que la persona pueda encontrar la ‘punta del ovillo’ para desanudar su propia historia y embrollarse con ella cada vez menos. En el cine, en la literatura, visitando un museo, y hasta yendo de compras, es decir, en cada acto cotidiano, podemos entender nuestras repeticiones que se elaboran en presencia de otro. En este caso es lo que el psicoanálisis nos viene ofrecer: romper con el discurso autista de la época que nos toca vivir”.

Fuente:
www.revistaenie.clarin.com

miércoles, 29 de mayo de 2013

Quimiofobia: lo contrario de químico no es ecológico.



 La única razón que encuentro para que, de un tiempo a esta parte, se le haya encontrado un antónimo a “química” como “natural”, que poco o nada tiene que ver con la lengua y mucho con la ideología, es la quimiofobia. La circunstancia está siendo muy explotada por los departamentos de marketing de empresas de todo tipo y es algo que ya está tan aceptado que oponerse es inútil y solo se arregla con formación. Entonces, ¿por qué escribo sobre esto?  Porque el otro día vi una vuelta de tuerca en un conocido blog ambiental que rebasó mi raya roja: contraponer ecológico a químico

En el artículo se diferencia entre productos de limpieza ecológicos y productos de limpieza químicos. Cada vez que veo algo que se define, aunque sea indirectamente, como “no químico” me pregunto si estará compuesto de sangre o cuerno de unicornio, de polvo de hadas o será, tal vez, “El halcón maltés”.  En la página de la empresa ni por asomo se les ocurre decir tamaña tontería. ¿Cómo podrían decir que algo no es químico cuando tiene una ficha de seguridad tal que así

Composicon friegasuelos Natursafe

El artículo hace gala de un nivel de ignorancia científica básico al afirma indirectamente que esos productos de limpieza no son una mezcla de compuestos químicos pero no todo es desinformación en el mundo de los productos de limpieza eco: tienen unos niveles de compuestos tales que los hacen merecedores de diversos sellos de sostenibilidad (espero) y el sistema de gestión de de residuos de envase usando un concentrado para mezclar con agua es algo que debería ser obligatorio en la UE desde hace tiempo para aquellos productos que lo permitan. 
Por lo que no paso es por asociar “químico” a “no ecológico”. Lo más aproximado al antónimo de “natural”, en este contexto, sería “sintético” y no, no todo lo “sintético” es malo. 

PD: los trucos caseros para limpiar también usan químicos sintéticos como el vinagre, ojocuida.

Fuente:
http://uncuartodeambiente.es 

domingo, 24 de febrero de 2013

Co-innovación: El rol de las alianzas en la innovación

Por Maria Prandi y Juan Cano, Colaboradores e investigadores del Instituto de Innovación Social de ESADE
El País 20 febrero 2013. 




Hablar de innovación social es cada vez más común. Se realizan seminarios, se crean espacios de coworking, se construyen organizaciones de respaldo y comprensión de la innovación social, e incluso contamos con entidades dedicadas a apoyar a emprendedores que han conseguido innovar en materia social. La innovación social se basa en una idea novedosa que consigue implementarse, responde a una necesidad social, es más eficiente que las soluciones existentes y aumenta la capacidad individual y colectiva para actuar. También debe ser replicable.

La innovación social requiere de la participación de organizaciones de sectores diversos para poder recorrer el camino entre una idea y la introducción de un nuevo producto o servicio en el mercado o la transformación de algún componente de la vida social. En otras palabras: el proceso innovador es también el resultado de un proceso de diálogo, de interacción, de escucha y de alianza entre diferentes actores, en el cual las ideas surgen como resultado de colaborar. Plantear de manera explícita la importancia y el valor de la CO-INNOVACIÓN abre posibilidades de comprender mejor el rol que tienen las alianzas en la innovación y, a la vez, orienta la mirada hacia la búsqueda de oportunidades de innovación en la manera como las organizaciones interactúan, conversan, se alían y cooperan.

Se han definido tres tipos distintos de innovación: incremental, semirradical y radical, que responden a los procesos y modos de implementación de la innovación. Estos están relacionados con el proceso de crecimiento, madurez y evolución de las organizaciones. La innovación incremental tiene una relación directa con el proceso de crecimiento de una organización. En este caso, el proceso de implementación de las ideas es considerada parte del crecimiento de la organización. La innovación semiradicial, implica una ruptura del modelo de crecimiento de la organización, de la que modifica, en parte, las capacidades. Finalmente, la innovación radical modifica estructuralmente la capacidad de actuar e impactar el mercado y la sociedad y por lo tanto genera una transformación que es radical frente al crecimiento y evolución natural de la organización.

Estos tres conceptos, sin embargo, tienen más fuerza cuando forman parte de un proceso de colaboración, que va más allá del crecimiento natural de la organización y se nutre de las diferencias y capacidades de sectores diversos. El cambio en las necesidades sociales es una constante y la colaboración, en la innovación social, es indispensable para desarrollar un proceso transformador. Esta colaboración da más amplitud a las respuestas a las necesidades sociales y permite elaborar soluciones más eficientes, rápidas, reales y ágiles. La colaboración es el camino más eficaz para gestionar actividades intensivas en conocimiento como la innovación social y una buena forma de canalizar valor hacia todas las organizaciones implicadas.

Precisamente, la investigación que aquí se presenta pretende mostrar que la innovación social no sólo está generando nuevos tipos de alianzas y colaboraciones sino que éstas a su vez, generan más innovación social. En este sentido, analiza qué nuevas maneras de relacionarnos están surgiendo que permiten tener más y mayores oportunidades de innovar socialmente.

Partimos de la idea de que en la innovación social es tan relevante el proceso creativo como la interacción con actores diversos. Esta colaboración ofrece mayores oportunidades de generación de ideas y amplía exponencialmente las variables de la matriz clásica de innovación. Una de las conclusiones a las que hemos llegado es que la innovación social tiene lugar en la superposición de sectores. No sólo está generando modelos híbridos (ya que los límites, las funciones y las responsabilidades de los diferentes sectores cada vez son más difusos) sino que abre la puerta a explorar nuevas maneras de relacionarnos.

La innovación social se puede aprender y, lo que es más importante, se puede compartir. Es importante sumar los aprendizajes adquiridos por cada uno de los actores a través de ecosistemas de colaboración que permitan desarrollar capacidades y compartir experiencias y motivaciones. Por ejemplo, impactos moderados que una innovación tiene en un sector determinado puede tener impactos radicales en otro, tal es el caso de las redes sociales abiertas, como Facebook o Twitter, que implicaron un avance moderado en el modelo de internet, pero que han implicado profundas transformaciones en los movimientos sociales locales y globales.
 
Fuente:
www.clubdeinnovacion.es

sábado, 16 de febrero de 2013

El científico maldito.

Por Aaron James
Traducción por Claudio Pairoba

Medgley ideólogo del plomo en combustibles, Teller quien respaldó el desarrollo de la bomba atómica y Edison, protagonista junto con Tesla de la guerra de las corrientes.


El ingeniero mecánico Thomas Midgley (1889-1944) hizo algunas cosas bastante despreciables con la ayuda de su reputación científica. Si su campaña acerca del efecto sobre el cambio climático de los clorofuocarbonados fue un error involuntario, no se puede decir lo mismo de su desvergonzado fomento de los aditivos de plomo anti explosión. Se podría decir que Midgley sabía que existía evidencia concluyente de que los obreros de la industria automotriz estaban sufriendo muchísimo de su exposición a las neurotoxinas. A pesar de esto, ofreció engañosas demostraciones públicas de su supuesta inocuidad, explotando a sabiendas la confianza pública en la ciencia para ganancia personal. En mi último libro “Malditos. Una teoría”, desarrollo esta definición junto con los pros y contras de este vicio distintivo.

Midgley puede entrar a la categoría de “maldito” de acuerdo a una definición del término. Un maldito es un tipo (o chica) que se atribuye ventajas especiales en relaciones sociales a partir de un arraigado (y equivocado) sentido de derecho que lo inmuniza de las quejas de otras personas
Mientras que Midgley falló en sus obligaciones como científico ante gran parte de la sociedad, los científicos a menudo se comportan como malditos entre ellos. Entre los ejemplos más conocidos tenemos las famosas maquinaciones de Edward Teller en contra de J. Robert Oppenheimer o las manipulaciones propietarias de

Thomas Edison en contra de Nikola Tesla. Hay también una amplia gama de movimientos malditos cotidianos tales como negarle fondos a un competidor, menospreciarlos a él o a sus resultados, hacerlos despedir, demorar la publicación de sus trabajos – todo simplemente por vanidad, supuesta superioridad o envidia disfrazada de corrección.

Si bien Midgley, Teller y Edison fueron malditos, no fueron necesariamente malos científicos. Cuando los científicos famosos parlotean en público como filósofos amateurs, no son necesariamente peores biólogos o físicos. Y cuando el Panel Internacional sobre Cambio Climático suprimió evidencia y festejó la muerte de sus críticos, obstaculizando su propia causa loable, sus errores fueron más que nada políticos antes que científicos en naturaleza.

Todo esto lleva a una pregunta más difícil: ¿puede uno ser un maldito en la propia práctica científica, incluso en sus búsquedas más privadas, tales como llevar a cabo un experimento o analizar los datos?
Podría parecer que no. El método científico tiene estándares estrictos para evaluar una hipótesis, pero los estándares no son solo obligaciones morales o interpersonales. Y además, actuar como un maldito puede ser una bendición para la ciencia. Cuando Robert Millikan determinó la carga del electrón a principios del siglo XX, negó datos indebidamente (en un error que llevó 30 años corregir) o confió apropiadamente en sus instintos, incluso a partir de un puro exceso de confianza? Un científico empujado por el ego y un sentido de derecho podría trabajar más horas, analizar datos de manera más rigurosa y buscar explicaciones más grandiosas y complicadas – todo con la firme convicción de que él es el Isaac Newton del tiempo presente.

Y si consigue grandes resultados que funcionan, ¿a quién le importa? Le estaremos en deuda de todas formas.

Aún así, propongo que hay una línea delgada entre coraje científico útil y terreno maldito. Supongamos que alguien descarta la teoría de su rival fundamentalmente debido a que es la teoría de su rival, o ignora datos que apuntan a socavar su hipótesis favorita, porque él se considera un “revolucionario”. Eso iría mucho más allá de lo que uno está autorizado a pensar o hacer dentro de las buenas prácticas científicas, y por razones malditas.

Y, sí, tales movimientos malditos todavía pueden ser una fuerza para el bien, al conducir a grandes descubrimientos. Pero esto será así solo en los márgenes de la práctica científica.


Esto es así porque hay poco tiempo durante el día para tratar de entender lo que pasa, mucho menos para trabajar en la búsqueda de nuevos resultados. De esta manera, los científicos tienen que verse a sí mismos como parte de una tarea común y apoyarse en el juicio mutuo. En ese caso, importa sobremanera si son confiables y cuan fielmente se someten a la autoridad de los mejores métodos de la ciencia, incluso en sus investigaciones “privadas”. Puede haber unos pocos malditos con suerte. Pero la ciencia no será la increíble fuerza para el bien que es a menos que los miles de científicos trabajen mancomunadamente en humildad ante las demandas de la razón.

Aaron James es Profesor Asociado de Filosofía de la Universidad de California, Irvine. Ganó la Beca del Consejo Norteamericano de Sociedades Ilustradas. Pasó el año académico 2009-2010 en el Centro para Estudios Avanzados en Ciencias del Comportamiento, Universidad de Stanford. Es un ávido surfista (experiencia que inspiró directamente su libro). Lea un extracto de su libro.




Fuente:



 

jueves, 14 de febrero de 2013

Comunicación y sociocultura.

A partir de una conversación veraniega, Sandra Massoni invita a una exploración de aquello que el lenguaje hace en otro lado para explicar el paradigma de la comunicación estratégica.

 Por Sandra Massoni *


De vacaciones y en la playa me encuentro con un amigo que hacía tiempo no veía. Tomamos unos mates a la orilla del mar y en medio de recuerdos, comentarios e intercambio de noticias sobre los conocidos, salta la pregunta: ¿Me podés decir qué es eso del nuevo paradigma de la comunicación? Vi que hace poco diste un curso en no sé dónde bajo ese título...

Probamos. Nos salió una disquisición/explicación breve y veraniega que conformó a mi amigo. Comenzamos por repensar la idea de comunicación social tradicional, aquella que se corresponde con alguna de las dimensiones del fenómeno que refieren sólo a lo comunicativo y que típicamente abordan las teorías de la comunicación desarrolladas en el siglo XX.

¿No será otra moda, che? Esto de lo viejo y lo nuevo no me va. Porque queda bien decir “el nuevo paradigma comunicacional”. Muchos lo dicen y sanseacabó: discusión cerrada. Comentario finiquitado. Nada más que agregar.

Los enfoques que se incluyen en los nuevos paradigmas, en contraposición, buscan desplegar una mirada sobre lo comunicacional en reemplazo de lo comunicativo. Reconocen que, ante todo, cualquier comunicación es una relación. Ese es su foco. Allí ubicados, lo que toca luego es explorar ese fenómeno como una conversación multidimensional, compleja, fluida, en la que interesa analizar cómo opera el encuentro entre quienes hablan. No se trata de cualquier conversación: no una charla entre vos y un Fulano, sino un vínculo intersubjetivo que configura el mundo deseable y posible tanto para vos como para el Fulano pero cuyos ejes y tonos se resuelven siempre a medio camino entre lo individual y lo colectivo. Ese es el recorte de lo comunicacional. Al examinar lo que ocurre en esa situación, los autores de los nuevos paradigmas hablamos del sentido enactuado. Claro, ese registro antes no se consideraba... ¿por eso también desde los nuevos paradigmas se plantea una especificidad para la comunicación social y antes se la ubicaba sólo como un tema de investigación que abordaban a veces otros científicos sociales?

Entre mate y mate, pasamos a revisar la cuestión de qué hacemos hoy los comunicadores ubicados en los nuevos paradigmas. El asunto del recorte específicamente comunicacional requirió situar esta nueva comunicación que plantean numerosos teóricos e investigadores en el campo de estudios comunicacionales actuales. Tomamos como referencia al mexicano Jesús Galindo Cáceres, quien habla de la tercera fundación de la comunicación que hoy se registra en Latinoamérica. Repasamos congresos y jornadas internacionales en los que se debatió el tema en el último año en diferentes países y ubicamos a algunos coterráneos de la Escuela de Comunicación Estratégica de Rosario. Ocurre que los comunicadores estratégicos no nos ocupamos de las subjetividades (esto lo hacen, entre otros, los psicólogos y los educadores), tampoco de las sociedades (esto lo hacen, entre otros, los sociólogos y los antropólogos); los comunicadores estratégicos nos ocupamos de la comunicación como espacio que emerge a medio camino entre ambos. 

De allí que definimos la comunicación como encuentro sociocultural. Una tensión que brota, a veces más cerca de un polo... a veces más cerca del otro... siempre en situación. La interlocución hace al tono y por consiguiente la comunicación, lejos de reducirse a la dimensión informativa, se despliega en dimensiones múltiples. Nos detuvimos a comentar casos cercanos en los que es evidente que lo comunicacional genera ciertas reverberancias colectivas que a veces nos resuenan en el cuerpo –individualmente, claro–, pero que también compone silencios como espacios socialmente cooperados. En esa dirección pensamos que nuestro trabajo de comunicadores implica también una exploración de aquello que el lenguaje hace en otro lado –como dice Noé Jitrik–, y –agrego yo– de aquello que se hace más acá y más allá de las metáforas o aun de otros diversos dispositivos de la dominación.

Nos gustó comprobar que los nuevos paradigmas de la comunicación nos ayudan a visualizar cierta ampliación de nuestras competencias como productores y consumidores de medios masivos. La comunicación desde los nuevos paradigmas es un eco, una sinergia individual/colectiva, una sintonía que incluye y a la vez excede lo simbólico, porque lo rebasa. Nuestra tarea actual desde estos registros de la cuestión comunicacional es más diversa, en tanto se interesa por las relaciones de afectación mutua de los actores sin concentrarse exclusivamente en códigos y mensajes.
Se nos acabó el agua del termo y, como hacía calor, nos fuimos a nadar.

* Doctora en Ciencias Sociales. Maestría en Comunicación Estratégica Univ. Nacional de Rosario.

Fuente:
www.pagina12.com.ar

sábado, 5 de enero de 2013

Contra la politización de todas las cosas.

Por Enrique Krauze



CIUDAD DE MÉXICO.- Politizar" es una palabra relativamente nueva en castellano. No aparecía en el Diccionario de la Real Academia Española (edición de 1970). Significa al menos tres cosas: una concentración excesiva en la política a expensas de las diversas zonas de la realidad, una concentración excesiva en los aspectos más superficiales de la propia política, y la primera acepción que consigna el mismo diccionario, en su edición vigente: "Dar orientación y contenido político a acciones, pensamientos o personas que, corrientemente, no lo tienen".

El uso primero es evidente en la prensa, los medios y las redes. Frente a la política, se desvanecen las otras esferas de la vida: los problemas sociales, los temas de la salud y la enfermedad, la ecología y la naturaleza, las cuestiones de religión y fe, las manifestaciones del arte, las letras y el pensamiento, las finanzas y los negocios, las iniciativas ciudadanas, la ciencia y la tecnología, el mundo exterior... casi todo salvo el deporte y la "cultura del espectáculo". El fenómeno empobrece a quienes lo ejercen y lo consumen: día con día hay hechos ajenos a la política, más importantes, influyentes o trascendentes que los hechos políticos.

Una derivada de esta politización puede hallarse en las columnas y comentarios menudos que siguen los gestos, los rumores, los chismes y -sobre todo- las declaraciones de los políticos. Es casi un deporte en el que se pierde el contexto social, la perspectiva histórica, la discusión de ideas, la valoración ética, el análisis lógico. En una palabra, el estudio de fondo -estructurado, fundamentado, estadístico, comparativo- de la política. En esa variante de la politización, la opinión desplaza al hecho, la ocurrencia al análisis, la política permanece en la espuma de los días.

El tercer significado es más interesante y complejo. El propio diccionario lo recoge en una segunda acepción: "Inculcar a alguien una formación o conciencia política". Se trata de un uso positivo, por ejemplo en el caso de una sociedad apática o inconsciente de sus derechos. Politizarla es contribuir a su autonomía y madurez. Pero el uso puede tener también una cara negativa. Ocurre cuando se da una "orientación y contenido político a acciones, pensamientos o personas" cuya naturaleza es, o debería ser, esencialmente ajena a la política.

En la esfera de la cultura, la politización puede desembocar en lo que Jean Paul Sartre llamó "la militarización de la cultura". A un libro, una obra de arte, un descubrimiento científico o un producto cultural de cualquier índole, no se le juzga -si se le juzga- por su calidad o su valor intrínseco, sino por la real o supuesta filiación política de sus creadores. Si es "amigo", la obra es "buena"; si es "enemigo", la obra es "mala" o, finalmente, no existe. Con la "politización de todas las cosas" se pierde el sentido mismo de la creación y el saber. Por eso preocupa tanto que cunda en medios universitarios.

Una forma particularmente insidiosa y obsesiva de esta politización es la teoría conspiratoria. Quienes incurren en ella no preguntan sobre la verdad objetiva de los hechos sino por el "poder" que adivinan o imaginan -sin probarlo nunca- "detrás" de ellos. El poder elevado a categoría explicativa absoluta. No abundaré sobre esta patología intelectual y moral, tan presente en la retórica populista latinoamericana de estos años.

La politización de todas las cosas ha tenido efectos devastadores sobre las relaciones personales. En su tratado de la amistad, Cicerón apunta que la política es causa fundamental de la discordia entre amigos. En Venezuela y en varios otros países (incluido México) la politización extrema (esa forma intolerante de acercarse a la política o de practicarla) no sólo ha sembrado división entre amigos sino también entre hermanos. Familias enteras comienzan a considerar, apenas ahora, los costos del encono ideológico.

Criticar la politización de todas las cosas no significa llamar a la despolitización. No se trata de dejar la política sólo en manos de los políticos. Se trata de alentar la buena politización ciudadana (participativa, matizada, informada, inteligente, alerta) y desalentar la mala politización (ideologizada, fanática, trivial). Se trata de enriquecer la vida política elevando la calidad del análisis político, del debate político y la crítica política. La "politización de todas las cosas" no contribuye a ese enriquecimiento. Paradójicamente, por la confusión intelectual que implica, contribuye a la despolitización.

Por lo demás, la democracia no requiere que empeñemos todo el tiempo -desayuno, comida y cena- en la política. Un buen propósito para 2013 sería devolver su riqueza y diversidad a la vida de cada nación. Cuando no todas las primeras planas sean políticas, cuando las distintas esferas de la vida alcancen las primeras planas, tendremos la certeza de vivir en una sociedad mejor.

Fuente 
www.lanacion.com.ar

miércoles, 12 de diciembre de 2012

Pueblos en riesgo de desaparecer.

Un estudiante de Ciencia Política estudió las causas de los procesos de despoblamiento en las localidades del sur de la provincia de Santa Fe.


"Cuando uno se acerca al territorio e indaga, se encuentra con indicadores muy preocupantes", sostuvo E. Violante.

 Por Victoria Schmuk

Edgardo Violante, graduado de la Escuela de Ciencia Política y Relaciones Internacionales, decidió investigar para su tesina final las realidades demográficas, sociales y políticas de las pequeñas localidades en el área sur de la provincia de Santa Fe, desde una amplia perspectiva asociada al enfoque del desarrollo local.

La inquietud de Edgardo por investigar este tema se inicia luego del cursado de la materia "Espacio y Sociedad" de la carrera de Ciencia Política, a cargo del Dr. Oscar Madoery, donde se abordan temáticas relacionadas al desarrollo local en el ámbito urbano y al desarrollo rural, territorial.

La investigación da cuenta de una situación que en los últimos 10 años se ha tornado paradójica, pues en un marco de crecimiento sostenido de la producción agraria argentina - vinculado tanto a volúmenes como a precios - se está registrando un notable deterioro en las condiciones sociales y económicas de cientos de pequeñas localidades ubicadas precisamente en el territorio rural pampeano. Dentro de este panorama, las localidades analizadas que se encuentran afectadas por el fenómeno del despoblamiento, muestran una situación desfavorable tanto en materia de infraestructura y servicios públicos, como en cuestiones laborales y asistenciales.

"En las últimas dos décadas la región de la pampa húmeda ha experimentado una verdadera revolución productiva de la mano de la incorporación de nuevas
tecnologías aplicadas a la producción agropecuaria, acentuado aún más su perfil agro-productivo. Dentro de este contexto socio-económico, cabe resaltar como proceso contradictorio la significativa reducción demográfica de los núcleos poblacionales de menor tamaño en la región", dijo el politólogo.

Las localidades que abordó se encuentran alrededor de 60 km. de la ciudad de Rosario; La Vanguardia, población que en la actualidad cuenta con 455
habitantes (censo 2001), habiendo registrado una retracción del 18% o de su población en relación con la medición anterior (censo 1991). Por otro lado,
trabajó con la localidad de Cepeda, población habitada por 434 habitantes (censo 2001) y que ha tenido una disminución del 16% de sus habitantes de acuerdo a la variación intercensal (1991-2001).

Edgardo contó que estas localidades son catalogadas como poblaciones rurales no sólo por poseer menos de 2000 habitantes, sino también por estar inmersas “simbólicamente” en el medio rural. A las localidades que sufren este fenómeno se las vienen denominando, de acuerdo a varias investigaciones y publicaciones, como pueblos en proceso de despoblamiento o como pueblos en riesgo de desaparecer.

El sector sur de la provincia de Santa Fe, inmerso completamente en la región de la pampa húmeda (la más dinámica en que lo hace a la producción agraria), presenta una cantidad considerable de localidades afectadas por el fenómeno del despoblamiento. "Para dimensionar globalmente la cuestión es necesario atender a otras facetas del asunto que están más allá de lo meramente cuantitativo-demográfico. Vinculadas tanto a elementos de tipo cultural subjetivo que hacen a la socialización de los habitantes de dichas localidades, como a la estructura económica productiva y a las condiciones laborales a nivel local", sostuvo Violante.

Además, el investigador señaló que la situación de los pueblos en proceso de despoblamiento está también atravesada por relaciones político-administrativas de distinta índole y de varios niveles gubernamentales. También, las jurisdicciones políticas provinciales y el Estado Nacional tienen responsabilidad y competencias sobre el asunto, más allá de que la cuestión en concreto se presenta en la jurisdicción local-comunal. "Esto se debe a que se trata de una cuestión compleja de desarrollo local que involucra a diversos actores y organismos públicos.

La idea de Edgardo fue hacer un trabajo explorativo inicial, ya que existen pocas investigaciones realizadas en el sector sur de la provincia de Santa Fe, para que luego otros continuen investigando y "sobre todo problematizar esta cuestión para que se haga visible y pública".

"La ausencia de políticas públicas territoriales a nivel provincial es muy notable y posiblemente están focalizadas en otras areas de la provincia y a nivel nacional después del conflicto del campo en el 2008, aparecen nuevas políticas, algunos Programas a traves del Ministerio del Interior que tratan de articular acciones integrales en pequeñas comunidades rurales", sostuvo Violante.

Por otra parte, Edgardo comentó que cuando uno se acerca al territorio e indaga se encuentra con indicadores muy preocupantes. "No hay una relación directa entre crecimiento y desarrollo, todavía las comunidades no se han desarrollado y el crecimiento tiene que ver con la desigualdad social de diferentes grupos económicos y la falta de políticas públicas en lo que tiene que ver con infraestructura y servicios. Me he topado con cosas que un relevamiento censal no puede dar cuenta, como la cantidad real de desocupados".

Fuente:
www.unr.edu.ar

viernes, 19 de octubre de 2012

Sobre los signos de advertencia tempranos.

El autor reflexiona sobre la búsqueda de orden en el aparente caos.



Cambios rápidos son distintivos del cambio climático, los ataques de epilepsia, las crisis financieras y los colapsos pesqueros. Principios matemáticos profundos enlazan a estos eventos.

Por George Sugihara
Traducción por Claudio Pairoba

En un encuentro cerrado que se desarrolló en Boston en octubre del 2009, el lugar estaba repleto personalidad de la política exterior y las finanzas: Henry Kissinger, Paul Volcker, Andy Haldane y Joseph Stiglitz entre otros, así como representantes de fondos de riqueza soberanos, pensiones y donaciones por valor de un billón de dólares – una significativa tajada de la riqueza del mundo. La sesión abrió con la siguiente pregunta reveladora: “¿El último par de años nos ha mostrado que nuestros modelos tradicionales de riesgo y financieros están irrecuperablemente destruidos y que los modelos y aproximaciones de otros campos (por ejemplo, la ecología) pueden ofrecer una mejor comprensión de la interconexión y fragilidad de los sistemas financieros complejos?
La ciencia es una empresa humana creative: Los descubrimientos se hacen en el contexto de nuestras creaciones: nuestros modelos y e hipótesis acerca de cómo funciona el mundo. Las grandes fallas, sin embargo, pueden ser una llamada de alerta sobre las visiones enfrentadas, y nada trae humildad o llama la atención más rápido que un evento que toma por sorpresa a tantos tan rápido.

Ejemplos de cambios catastróficos y sistémicos se han estado acumulando en una variedad de campos, típicamente en contextos especializados con poca conexión cruzada. Solo recientemente hemos comenzado a buscar patrones genéricos en la red de causas y efectos conectados que pone eventos dispares en un marco común – un marco que opera en nivel lo suficientemente alto para incluir cambios climáticos geológicos, ataques epilépticos, debacles de los mercados y la industria pesquera y rápidos cambios de ecosistemas saludables a desiertos biológicos.

Los temas principales de este marco son dobles: Primero, son todos sistemas complejos de partes interconectadas e independientes. Segundo, son sistemas no lineales y que no están en equilibrio, que pueden sobrellevar cambios de estado rápidos y drásticos.

Consideren primero las interconexiones complejas. Generalmente no se piensa en la economía como un problema de sistemas globales. De hecho, los bancos de inversión son famosos por una marca de visión en tunel que enfoca el manejo de riesgos a nivel de las firmas individuales e ignora los problemas financieros en red que son menos frecuentes pero más costosos y difíciles. El monitoreo de redes de firmas similares a ecosistemas, con hojas de balances entrelazadas no aparece en la descripción de las ocupaciones de un gerente de riesgos. Aún así, existe un acuerdo emergente que al ignorar el a”parentemente incomprensible entramado de obligaciones de las contrapartes e interdependencias mutuas (la pesadilla de un contador, más recursiva que la rutina de Abbott y Costello “¿Quién está en primera?) evitó una real evaluación de las primas de riesgo, lo que ayudó a propagar la crisis actual.

Una situación paralela existe en la industria pesquera, donde tradicionalmente se manejan los stocks una especie a la vez. La alarma por el colapso con las reservas de peces, sin embargo, está ayudando a crear la actual tendencia para un manejo del océano basado en los ecosistemas. Este es un paso en la dirección correcta, pero los modelos actuales de simulación de ecosistemas continuan siendo incapaces de reproducir derrumbes reales en la población. Y lo mismo es real para la mayoría de los modelos de simulación climáticos. Aunque los datos geológicos nos dicen que las temperaturas globales pueden cambiar rápidamente, los modelos consistentemente subestiman esa posibilidad. Esto se relaciona con la siguiente propiedad, la naturaleza no lineal y de no equilibrio de los sistemas.

La mayoría de los sistemas diseñados, consistentes en resortes mecánicos, transistores y cosas por el estilo, son construídos para permanecer estables. O sea, si se los aleja del reposo o equilibrio, vuelven a ese estado. Muchos modelos ecológicos simples, modelos fisiológicos e incluso los modelos económicos y climáticos se construyen asumiendo el mismo principio: un equilibrio estable de naturaleza global. Una simplificación relacionada es ver al mundo como formado por partes separadas que pueden ser estudiadas de manera lineal, una pieza por vez. Estas piezas pueden sumarse de manera independiente para obtener el todo. Los investigadores han desarrollado una gran cantidad de herramientas y métodos analíticos y estadísticos basados en esta idea lineal, y han probado ser de invalorable ayuda para el estudio de dispositivos simples. Pero incluso cuando muchos de los sistemas complejos que nos interesan son no lineales, insistimos con estas herramientas y modelos. Es un caso de mirar bajo el poste de luz porque la luz es mejor aunque sabemos que las llaves perdidas están en las sombras. Los sistemas lineales producen hermosas estadísticas estacionarias – métricas de riesgo constantes, por ejemplo. Dado que asumen la ausencia de variación de un proceso a lo largo del tiempo, uno puede obtener una pequeña muestra para tener una idea de cómo se ve el universo de posibilidades más grande. Esta característica de los sistemas lineales suena atrayente para nuestro razonamiento heurístico normal.

Sin embargo, los sistemas no linelaes no se comportan tan bien. Pueden aparecer estacionarios por un largo período de tiempo, luego y sin que medie ningún cambio, muestran saltos en variabilidad – llamados de variancia cambiante. Por ejemplo, si uno mira al rango de variables económicas durante la década pasada (movimientos diarios del mercado, cambios en el Producto Bruto Interno, etc.), uno podría inferir que la variabilidad y el universo de posibilidades son modestos. Este era el modus operandi del manejo de riesgo normal. A consecuencia de esto, la posibilidad de algunos de los grandes movimientos que vimos en el 2008, los cuales ocurrieron a lo largo de varios dias consecutivos, debería haber sido inferior a una vez en la vida del universo.

Nuestro problema es que el deseo científicos de simplificar ha tomado control, algo sobre lo que Einstein advirtió cuando parafraseó a Occam: “Todo debería hacerse tan simple como sea posible, pero no más”. Pensar en los sistemas naturales y económicos como de naturaleza esencialmente estable y pasibles de ser descompuestos en partes es una buena hipótesis inicial, las observaciones y mediciones actuales no respaldan esta hipótesis – de allí nuestra contínua sorpresa. Así como nos gusta la idea de constancia, somos caprichosos para cambiar. Josh Billings el humorista norteamericano del siglo 19, lo dijo muy bien: “No es lo que no sabemos lo que nos causa problemas, es lo que sabemos que no es así.”

Así que, ¿cómo procedemos? Hay una serie de formas para aproximarnos de manera táctica, incluyendo nuevas técnicas con gran cantidad de datos que modelan cada sistema de manera única pero buscando características comunes. Sin embargo, un acercamiento más estratégico consiste en estudiar estos sistemas en su nivel más genérico, identificar principios universales que sean independientes de los detalles específicos que distinguen a cada sistema. Este es el dominio de la teoría de la complejidad. Entre estos principios está la idea de que podría haber señales universales de alarma temprana para las transiciones críticas, señales diagnósticas que aparecen cercanas a puntos inestables de rápido cambio. El argumento reciente para las señales tempranas se basa en lo siguiente: 1) que tanto los modelos simples como los no lineales complejos y más reales muestran estos comportamientos, y 2) que hay creciente evidencia empírica para estos precursores comunes en una variedad de sistemas.

Un fenómeno clave conocido por décadas es el llamado “enlentecimiento crítico” a medida que se aproxima un umbral. O sea, una respuesta dinámica del sistema a las perturbaciones externas se vuelve más lento cerca de los puntos de inflexión. Matemáticamente, esta propiedad da lugar a una inercia aumentada en las subidas y bajadas de cosas tales como temperatura y números de poblaciones – llamamos a esta inercia “autocorrelación” – lo cual a su vez puede resultar en cambios más marcados, o más volatilidad. En algunos casos, incluso puede producir “parpadeos”, o alternancia rápida entre un estado estable y otro (imagine un lago rebotando una y otra vez entre transparente y oxigenado vs. plagado de algas y sediento de oxígeno). Otro comportamiento temprano es un incremento en “resonancia espacial”: pulsos que ocurren en partes vecinas de la red se sincronizan. Neuronas cercanas disparan al unísono desde minutos hasta horas anteriores a un ataque epiléptico, por ejemplo, y los mercados financieros globales pulsan juntos. Se ha visto que la autocorrelación que deriva del enlentecimiento crítico es un indicador particularmente bueno de ciertos eventos de cambio climático geológico, tales como la transición entre invernadero-casa de hielo que ocurrió 34 millones de años atrás; el efecto inercial del enlentecimiento de los sistemas climáticos se acumuló de manera gradual a lo largo de millones de años, terminando de manera brusca en un cambio rápido que convirtió un planeta verde y exuberante en otro con regiones polares cubiertas de hielo. El quiebre financiero global ilustra el fenómeno de enlentecimiento crítico y resonancia espacial.

Al acercarnos a la crisis, hubo un marcado incremento en homogeneidad entre instituciones, tanto en sus estrategias de generación de ganancias así como en sus estrategias de manejo de riesgo, de manera tal que se incrementó la correlación entre fondos y a través de los países – un señal temprana. De hecho, con respecto al manejo de riesgo a través de la diversificación, es irónico que la diversificación fue tan extrema que se perdió: todos siendo propietarios de una parte del todo crea una homogeneidad completa. La reducción del riesgo a través de un incremento en la diversidad del portfolio tiene sentido para cada institución individual, pero si todos lo hacen, crea riesgos enormes para los grupos o sistemas. Matemáticamente, tal homogeneidad conduce a una conectividad aumentada en el sistema financiero, y el número y fuerza de estos lazos crece a medida que crece la homogeneidad. Por lo tanto, la consecuencia de aumentar la conectividad es desestabilizar un sistema genérico complejo: cada institución se vuelve más afectada por la hoja de balances de las instituciones vecinas que por la propia. El rol del monitoreo de riesgo sistémico, entonces, podría ser la rápida detección y diseminación de desbalances potenciales, de la misma manera en que permitimos los incendios frecuentes de malezas para impedir incendios catastróficos. En el caso de que esta clase de desbalances sean rápidamente identificados, tal vez no necesitemos regulaciones más allá de una rápida difusión de información. Tener disrupciones frecuentes y pequeñas incluso podría ser señal de un sistema financiero innovador y saludable.

Se podrían obtener lecciones tácticas adicionales de las similitudes en la estructura de redes de pagos bancarios y redes “mutualistas” o cooperativas en Biología. Se cree que estas estructuras promueven el crecimiento de las redes y sostienen más especies. Considere el caso de las plantas y sus insectos polinizadores: cada grupo se beneficia mutuamente, pero existe competencia dentro de los grupos. Si los polinizadores interaccionan con plantas promiscuas (generalistas que se benefician de muchas especies de insectos diferentes), la competencia total entre insectos y plantas disminuye y el sistema puede crecer mucho.

Las relaciones de esta clase se ven también en sistemas financieros, donde pequeños bancos especialistas interaccionan con grandes bancos generalistas. De manera interesante, la misma estructura jerárquica que estimula la biodiversidad en redes de cooperación plantas-animales puede incrementar el riesgo de fallas sistémicas a gran escala: el mutualismo facilita una mayor biodiversidad, pero también crea la posibilidad de que muchas especies dependientes se extingan, especialmente si generalistas grandes y bien conectados – ciertos grandes bancos, por ejemplo – desaparecen. Se vuelve un argumento para la política de “demasiado grande para fallar”, en la cual el tamaño de la red de la compañía en Facebook importa más que el tamaño de su hoja de balances.

Para estar seguros, rescatar a una gran institución financiera genera cuestiones de “peligro moral”. Sin embargo, la razón más convincente para andar con cuidado es que esta acción podría propagar otro colapso sistémico en otra parte de la red si hay demasiado subsidio enfocado y el beneficio no se distribuye (un punto relevante para aquellos que están manejando fondos TARP). Los términos excesivamente favorables entre dos agentes que cooperan – digamos la Reserva Federal y una institución financiera grande – pueden conducir a un colapso no buscado de otros agentes y a un eventual duopolio.

Otro buen ejemplo es el de la interdependencia del sitio de subastas online eBay y el sistema de pagos electrónicos PayPal. PayPal fue la forma de pago dominante para las subastas en eBay cuando eBay la compró en 2002, fortaleciendo los lazos cooperativos entre las dos compañías. Esta sociedad duopolística contribuyó a la desaparición de sistemas de pagos que competían, tales como Billpoint de eBay (desaparecido después de la compra de PayPal), c2it del Citibank (cerrado en 2003) y el PayDirect de Yahoo! (cerrado en 2004).

Como un pensamiento final, aunque nos gustaría predecir y manejar los cambios catastróficos, algunos serán inevitables. La inestabilidad es un hecho de la naturaleza. Y aunque ahora nos parezca difícil, un día los desplazamientos del cambio climático empequeñecerán nuestras preocupaciones sobre la economía. A medida que nos volvemos más conscientes de las formas en que nuestras acciones nos acercan más rápidamente a los puntos de inflexión del cambio climático, tal vez nuestra posesión más preciada será nuestra habilidad de anticipar estos cambios lo suficientemente rápido para evitarlas o, por lo menos, prepararnos para sus consecuencias.

George Sugihara es biólogo teórico y se desempeña en el Scripps Institution of Oceanography.


Fuente:
www.seedmagazine.com

jueves, 3 de mayo de 2012

Noam Chomsky y las 10 Estrategias de Manipulación Mediática.



El lingüista Noam Chomsky elaboró la lista de las “10 Estrategias de Manipulación” a través de los medios

1. La estrategia de la distracción 
El elemento primordial del control social es la estrategia de la distracción que consiste en desviar la atención del público de los problemas importantes y de los cambios decididos por las elites políticas y económicas, mediante la técnica del diluvio o inundación de continuas distracciones y de informaciones insignificantes. La estrategia de la distracción es igualmente indispensable para impedir al público interesarse por los conocimientos esenciales, en el área de la ciencia, la economía, la psicología, la neurobiología y la cibernética.

“Mantener la Atención del público distraída, lejos de los verdaderos problemas sociales, cautivada por temas sin importancia real. Mantener al público ocupado, ocupado, ocupado, sin ningún tiempo para pensar; de vuelta a granja como los otros animales (cita del texto 'Armas silenciosas para guerras tranquilas)”.

2. Crear problemas y después ofrecer soluciones
Este método también es llamado “problema-reacción-solución”. Se crea un problema, una “situación” prevista para causar cierta reacción en el público, a fin de que éste sea el mandante de las medidas que se desea hacer aceptar. Por ejemplo: dejar que se desenvuelva o se intensifique la violencia urbana, u organizar atentados sangrientos, a fin de que el público sea el demandante de leyes de seguridad y políticas en perjuicio de la libertad. O también: crear una crisis económica para hacer aceptar como un mal necesario el retroceso de los derechos sociales y el desmantelamiento de los servicios públicos.

3. La estrategia de la gradualidad
Para hacer que se acepte una medida inaceptable, basta aplicarla gradualmente, a cuentagotas, por años consecutivos. Es de esa manera que condiciones socioeconómicas radicalmente nuevas (neoliberalismo) fueron impuestas durante las décadas de 1980 y 1990: Estado mínimo, privatizaciones, precariedad, flexibilidad, desempleo en masa, salarios que ya no aseguran ingresos decentes, tantos cambios que hubieran provocado una revolución si hubiesen sido aplicadas de una sola vez.
4. La estrategia de diferir
Otra manera de hacer aceptar una decisión impopular es la de presentarla como “dolorosa y necesaria”, obteniendo la aceptación pública, en el momento, para una aplicación futura. Es más fácil aceptar un sacrificio futuro que un sacrificio inmediato. Primero, porque el esfuerzo no es empleado inmediatamente. Luego, porque el público, la masa, tiene siempre la tendencia a esperar ingenuamente que “todo irá mejorar mañana” y que el sacrificio exigido podrá ser evitado. Esto da más tiempo al público para acostumbrarse a la idea del cambio y de aceptarla con resignación cuando llegue el momento.

5. Dirigirse al público como criaturas de poca edad
La mayoría de la publicidad dirigida al gran público utiliza discurso, argumentos, personajes y entonación particularmente infantiles, muchas veces próximos a la debilidad, como si el espectador fuese una criatura de poca edad o un deficiente mental. Cuanto más se intente buscar engañar al espectador, más se tiende a adoptar un tono infantilizante. Por qué? “Si uno se dirige a una persona como si ella tuviese la edad de 12 años o menos, entonces, en razón de la sugestionabilidad, ella tenderá, con cierta probabilidad, a una respuesta o reacción también desprovista de un sentido crítico como la de una persona de 12 años o menos de edad (ver “Armas silenciosas para guerras tranquilas”)”.

6. Utilizar el aspecto emocional mucho más que la reflexión
Hacer uso del aspecto emocional es una técnica clásica para causar un corto circuito en el análisis racional, y finalmente al sentido critico de los individuos. Por otra parte, la utilización del registro emocional permite abrir la puerta de acceso al inconsciente para implantar o injertar ideas, deseos, miedos y temores, compulsiones, o inducir comportamientos…

7. Mantener al público en la ignorancia y la mediocridad
Hacer que el público sea incapaz de comprender las tecnologías y los métodos utilizados para su control y su esclavitud. “La calidad de la educación dada a las clases sociales inferiores debe ser la más pobre y mediocre posible, de forma que la distancia de la ignorancia que planea entre las clases inferiores y las clases sociales superiores sea y permanezca imposibles de alcanzar para las clases inferiores (ver ‘Armas silenciosas para guerras tranquilas)”.
8. Estimular al público a ser complaciente con la mediocridad
Promover al público a creer que es moda el hecho de ser estúpido, vulgar e inculto…

9. Reforzar la autoculpabilidad
Hacer creer al individuo que es solamente él el culpable por su propia desgracia, por causa de la insuficiencia de su inteligencia, de sus capacidades, o de sus esfuerzos. Así, en lugar de rebelarse contra el sistema económico, el individuo se autodesvalida y se culpa, lo que genera un estado depresivo, uno de cuyos efectos es la inhibición de su acción. Y, sin acción, no hay revolución!
10. Conocer a los individuos mejor de lo que ellos mismos se conocen
En el transcurso de los últimos 50 años, los avances acelerados de la ciencia han generado una creciente brecha entre los conocimientos del público y aquellos poseídas y utilizados por las elites dominantes. Gracias a la biología, la neurobiología y la psicología aplicada, el “sistema” ha disfrutado de un conocimiento avanzado del ser humano, tanto de forma física como psicológicamente. El sistema ha conseguido conocer mejor al individuo común de lo que él se conoce a sí mismo. Esto significa que, en la mayoría de los casos, el sistema ejerce un control mayor y un gran poder sobre los individuos, mayor que el de los individuos sobre sí mismos.

Fuente:
http://www.gramscimania.info.ve

jueves, 26 de abril de 2012

La aparición de un cártel de citas.


Usada para definir actividades oscuras o ilegales, la palabra comienza a aparecer en el ámbito científico.

La metodología para confeccionar los índices de impacto de las revistas está en el tapete.

Por Phil Davis
Traducción por Claudio Pairoba

Desde un punto de vista económico, la autocita es la manera más fácil de estimular nuestras referencias. Todos los autores saben esto y citan sus propios artículos, sin importar cuan periférica sea su relación con el tema en cuestión. Los editores también saben esto, y a algunos los han atrapado coaccionando a los autores para que autociten a su revista científica. Otros editores han publicado “reviews” editoriales de los artículos publicados en sus propias revistas., enfocándose totalmente en artículos que han sido publicados en los últimos 2 años, la ventana de tiempo a partir de la cual se genera el factor de impacto.

Hay un precio que pagar por este comportamiento, especialmente cuando se hace en forma excesiva. Thomson Reuters, editores del Journal Citation Report (JCR, informe anual de citas de revistas), normalmente ponen en espera a aquellas revistas que tienen índices de citas excesivamente altos, de manera tal que ellos mueven el ranking de la revista entre otros títulos relacionados.

Hay otra táctica que es mucho más perniciosa y difícil de detectar. Es el cartel de citas.

En un ensayo de 1999 publicado por Science, “Scientifica Communication – A vanity Fair?”, George Franck nos advertía sobre la posibilidad de los carteles de citas – grupos de editores y revistas trabajando juntos para beneficio mutuo. Hasta el momento, este comportamiento no ha sido ampliamente documentado, sin embargo, cuando uno lo ve por primera vez, es sorprendente.

Cell Transplantation es una revista médica publicada por el Cognizant Communication Corporation de Putnam Valley, Nueva York. En los últimos años, su factor de impacto ha estado creciendo rápidamente. En el 2006, era 3482. En el 2010, se había duplicado a 6204.

Cuando uno se fija en cuáles son las revistas que Cell Transplantation cita, son dos las que se destacan notablemente: el Medical Science Monitor, and The Scientific World Journal. De acuerdo a JCR, ninguna de estas dos revistas habían citado a Cell Transplantation hasta 2010.

Después, en 2010, un artículo de revisión se publicó en el Medical Science Monitor citando 490 artículos, 445 de los cuales se referían a artículos publicados en Cell Transplantation. Todos los 445 trabajos hacían referencia a papers publicados en 2008 o 2009 – el período usado para obtener el factor de impacto 2010 para la revista. De las restantes 45 citas, 44 citaban al Medical Science Monitor, de nuevo haciendo referencia a artículos publicados en 2008 y 2009.

Tres de los cuatro autores de este trabajo ocupan puestos en el consejo editorial de Cell Transplantation. Dos son editores asociados, uno es el editor fundador. El cuarto es el CEO de una compañía de comunicación médica.

En el mismo año, 2010, dos de estos editores también publicaron un artículo de revisión en The Scientific World Journal citando 124 artículos, 96 de los cuales fueron publicados en Cell Transplantation en 2008 y 2009. De las restantes 28 citas, 26 hacían referencia a papers publicados en The Scientific World Journal en 2008 y 2009. Se empieza a ver un patrón. Así es como se ve: (ver foto adjunta).

Los dos artículos de revisión arriba descriptos contribuyeron con un total de 541 citas al cálculo del factor de impacto 2010 de Cell Transplantation. Eliminenlas y el factor de impacto de la revista cae de 6204 a 4082.

Los editores de Cell Transplantation han continuado con esta práctica durante todo el 2011, con dos reviews adicionales. El primero aparece en el Medical Science Monitor, con 87 citas de Cell Transplantation y 32 citas del Medical Science Monitor, todas de articulos publicados en 2009 y 2010. El segundo review aparece en The Scientific World Journal, y contiene 109 citas de Cell Transplantation y 29 citas de The Scientific World Journal, todas las cuales fueron publicadas en el mismo período ventana de 2 años del cual se obtendrá el factor de impacto 2011.

En 2011, los editores de Cell Transplantation también publicaron un artículo de revisión parecido en su propia revista, citando a una revista hermana más chica, Technology and Innovation, 25 veces – 24 de las cuales fueron publicadas en 2010. Las restantes citas hacen referencia a artículos de Cell Transplantation publicados en 2009 y 2010. El primer autor del artículo es el Editor en Jefe de Technology and Innovation, el último autor es coeditor de la revista.

Desde una posición estratégica, colocar artículos de autoreferencia en una revista amiga es una estrategia económica y efectiva si el objetivo es darle un empujón al propio factor de impacto . Por una tarifa de procesamiento del artículo de 1100 dólares (Medical Science Monitor), los editores pudieron de redireccionar 445 citas a su revista con el fin de contribuir al factor de impacto. Lo mejor de todo, esta clase de comportamiento es difícil de rastrear.

El JCR provee matrices de citas y “citados por” para todas las revistas que indexan, sin embargo, estos datos existen solo en su agregado y no están conectados con artículos específicos. Fue solo después de ver numeros grandes entre una larga lista de ceros que se me ocurrió que algo raro estaba pasando – eso y el dato de un científico preocupado. Identificar estos artículos requirió que yo hiciera una búsqueda especial de “citados por” en la Web of Science. Los datos están ahí, pero están lejos de ser transparentes.

La facilidad con la cual los miembros de un comité editorial fueron capaces de usar un cartel de revistas para influenciar el factor de impacto de su revista me preocupa sobremanera porque el costo de hacer eso es muy bajo, las ganancias son increíblemente altas, es difícil de detectar y la práctica puede facilitarse de manera muy sencilla por comité editoriales con miembros que se repiten o a través de acuerdos de cooperación entre ellos. Es más, los editores pueden proteger estos “reviews” de la revisión por pares si están rotulados como “material editorial”, como algunos lo están. Es la estrategia perfecta para trampear al sistema.

Por todas estas razones, estoy particularmente preocupado porque de todas las estrategias que todos los editores inescrupulosos usan para incrementar los rankings de sus revistas, la formación de carteles de citas es la que podría dañar a las citas como un indicador científico. Debido a la forma en que opera, tiene el potencial de crear una burbuja de citas muy, pero muy rápido. Si Ud. no está de acuerdo con la forma en que algunos editores están utilizando los carteles de citas, su forma de pensar puede cambiar en uno o dos años cuando su revista comience a quedar rezagada con respecto a sus competidores.

A diferencia de la autocitación, la cual es muy fácil de detectar, Thomson Reuters no tiene un algoritmo para detectar los carteles de citas, ni una política declarada para mantener a raya a este comportamiento turbio.

Una forma de detectar los artículos culpables sería examinar el porcentaje de referencias que contribuyen al factor de impacto y que están dirigidas a una sola revista. Desde el punto de vista computacional, esta puede ser la forma más sencilla. Determinar cuánta influencia es excesiva y bajo qué circunstancias serán los desafíos más importantes.

Los editores científicos necesitan discutir como manejar este tema. Si las normas disciplinarias y el decoro no pueden controlar este tipo de comportamiento, la amenaza de ser eliminado de las listas del JCR puede ser necesaria.

Fuente:
http://scholarlykitchen.sspnet.org/

martes, 17 de abril de 2012

Premio Nobel: ¿la historia vuelve a repetirse?

Un encendido editorial del diario El País hace referencia al reciente escándalo desatado tras el anuncio del premio Nobel en Medicina o Fisiología.

Mentir no es ciencia

Algunos científicos consiguen el Premio Nobel con las investigaciones de sus subordinados

Las maniobras más dañinas para la ciencia no son las más evidentes —fraude o manipulación—, sino las que llevan tanto tiempo enquistadas entre los radios del sistema que se han vuelto invisibles. Una de ellas consiste en ignorar al descubridor para atribuir a su jefe el descubrimiento. Por lo conocido esta semana, la práctica ya era corriente hace 60 años, cuando se concedió el Premio Nobel de Medicina al norteamericano Selman Waksman por el hallazgo de la estreptomicina; y lo seguía siendo hace unos meses, cuando se le otorgó al francés Jules Hoffmann por el esclarecimiento de la inmunidad innata, la clave hacia una generación radicalmente nueva de medicamentos antimicrobianos. En ambos casos, el trabajo y las ideas de los jóvenes investigadores que diseñaron y ejecutaron los experimentos —Bruno Lemaitre en el caso del francés— fueron usurpados por sus jefes, Waksman y Hoffmann, que acabaron recibiendo la mayor distinción científica por unos avances que ni habían previsto ni ayudaron a conquistar; unas investigaciones a las que se habían opuesto, y que ni siquiera conocieron hasta que llegó la hora de estampar su firma en el artículo y dejar que su nombre sonara en Estocolmo.

Son habituales y hasta esperables las polémicas por la concesión de los Premios Nobel. Resulta dificultoso y, a veces, imposible reducir a un nombre propio los créditos de una investigación compleja en la que han intervenido varios laboratorios, por lo general compitiendo entre sí. Una opinión extendida, que se ha vuelto a oír estos días en apoyo de Hoffmann, sostiene que estas rencillas no son más que producto del resentimiento de los malos perdedores, y que aventarlas en la prensa solo sirve para manchar la imagen de la ciencia ante el público lego.

Pero estos casos son de naturaleza distinta a las rencillas habituales. Que un jefe usurpe el mérito de un joven científico de su propio laboratorio no es una disputa por la prioridad, sino una vileza. También es una mentira, y un tipo de comportamiento incompatible con la ética científica y su compromiso con la búsqueda de la verdad. Premiarlo con un Nobel ya parece un sarcasmo.Y silenciarlo es justo la receta para que se perpetúe, dañando no ya la imagen de la ciencia, sino los mismos principios que la hacen avanzar.

Fuente:
http://elpais.com/elpais/2012/03/10/opinion/

Material adicional

Material adicional 2

lunes, 30 de enero de 2012

El lado oscuro de la ciencia.

Un interesante post de Miguel Jara: "Mercaderes de la duda" 

Cayetano Gutiérrez Pérez, Catedrático de Física y Química y divulgador científico, me escribió hace tiempo. Estaba terminando de leer el libro La salud que viene y como él me contó coincidía en que “no todo vale como avance, como progreso social o tecnológico. Es fundamental aplicar el principio de precaución cuando se tenga la más mínima duda de que algo puede perjudicar la salud de los seres vivos del planeta”, una de las ideas centrales del libro. Poco después me mandó esta colaboración que trata sobre cómo existen científicos al servicio de la generación de dudas en materia de salud y medioambiente para beneficiar a ciertos sectores industriales.

Aunque Pasteur decía que “la ciencia es el alma de la prosperidad de las naciones y la fuente de vida de todo progreso”, por desgracia, en la comunidad científica, al igual que en otros colectivos, también existe un pequeño grupo de científicos corruptos. A mediados del s. XX surgieron los “mercaderes de la duda”, término acuñado por los historiadores de la ciencia estadounidenses Oreskes y Conway, autores del libro Mercaderes de la duda (Merchants of doubt), publicado en 2010, en EE.UU.
Los “mercaderes de la duda” son científicos de renombre, especialistas en generar polémicas, dedicados a negar evidencias que perjudican al sector empresarial, con argumentos poco rigurosos, cobrando por ello auténticas fortunas. Estos “mercaderes de la duda” fueron los que mantuvieron durante décadas que el tabaco no producía cáncer, que la industria del amianto no era la responsable de la asbestosis, que los clorofluorocarbonos no destruían el ozono… Desde hace un par de décadas niegan que el cambio climático esté relacionado con las actividades industriales, sembrando dudas sobre su origen, con masivas campañas de publicidad y artículos pseudo científicos.
Afortunadamente, en la actualidad comienzan a ser desenmascarados estos “mercaderes de la duda”. En el citado libro Merchants of doubt, se describe por primera vez cómo funcionan los negacionistas del cambio climático y quiénes son, y demuestra que algunos de los científicos que hoy niegan el calentamiento global participaron antes en polémicas referidas a los efectos del tabaco, la lluvia ácida y el agujero de ozono.



Como indico en mi libro La actuación frente al cambio climático, la táctica de sembrar dudas sobre la validez de la ciencia establecida ha sido usada en el pasado, por el sector industrial causante de un determinado daño, para dividir la opinión pública, retrasar la toma de medidas por parte de las administraciones y las denuncias por parte de las víctimas.

En el caso del cambio climático, la defensa de los intereses económicos de las grandes multinacionales del petróleo nos ha conducido a situaciones peligrosamente preocupantes, ya que las grandes industrias del carbón y el petróleo, americanas, han invertido millones de dólares para mantener al público con dudas sobre el cambio climático. Así, en 1995, la industria del carbón había pagado más de 800 millones de euros a cuatro científicos que mostraban su disconformidad con el calentamiento global. Y Exxon Mobil ha gastado millones de euros en una campaña de relaciones públicas contra el calentamiento global. En 2000, los magnates del petróleo y el carbón se apuntaron su mayor victoria electoral hasta la fecha cuando el Presidente George W. Bush salió elegido, aceptando las insinuaciones del sector respecto a su política climática y energética.

La última cacicada tuvo lugar en la reunión de París (2007), donde un grupo ligado a Bush, subvencionado por la petrolera Exxon Mobil, quiso sobornar a los científicos para desacreditar su informe, ofreciéndoles 7.000 €, según informó el diario británico The Guardian. Como dato valga que el presupuesto asignado para publicidad de las grandes petroleras duplica el Producto Interior Bruto de muchos países en vías de desarrollo.

Greenpeace reveló, en marzo de 2010, que el segundo grupo industrial más poderoso de los Estados Unidos (las “Industrias Koch”) entregó, entre 2005 y 2008, casi 25 millones de dólares a 40 fundaciones conservadoras negadoras del cambio climático, que organizan seminarios para periodistas y funcionarios, artículos en los medios de comunicación, etc.

Conviene matizar que sobre el cambio climático no se puede ni se debe frivolizar, ya que la inmensa mayoría de la comunidad científica acepta su existencia, en mayor o menor grado, porque así lo indican los datos de más de 2.500 científicos, correspondientes a 130 países, reunidos por la ONU, que llevan más de 20 años investigándolo.

Las evidencias del calentamiento global se ven reforzadas por los artículos publicados en las diferentes revistas científicas de prestigio. Así, en la revista Science (Dic.-2004), podemos encontrar los artículos publicados por revistas científicas a favor y en contra del cambio climático, entre 1993 y 2003, en el artículo titulado Beyond the Ivory Tower: The Scientific Consensus on Climate Change (Oreskes. Science 3 December 2004: Vol. 306. Nº. 5702, p. 1686). Dicho informe concluye que se publicaron 928 artículos que van a favor de la conclusiones del Panel Intergubernamental sobre Cambio Climático (IPCC) y ni un sólo artículo que vaya en contra de las mismas y que reforzara las tesis de los negacionistas del cambio climático. Es decir, no hay un sólo artículo científico publicado, entre 1993 y 2003, que vaya en contra de las tesis básicas del IPCC sobre la realidad del cambio climático.

Este artículo y otros evidencian que el consenso sobre el cambio climático es bastante generalizado y que la polémica sobre el cambio climático no se da en las revistas científicas, sino en los editoriales de algunos medios de comunicación, que responden a presiones de los lobbys de distintas multinacionales, cuyos intereses económicos se verían afectados negativamente por las medidas que se pudiesen tomar para frenar el cambio climático.


Las campañas para generar incertidumbre sobre el cambio climático parecen estar dando resultados. Así, una encuesta de la BBC (feb.-2010) mostraba que sólo el 26% de los británicos cree hoy que el cambio climático está generado principalmente por el ser humano, lo que representa una disminución respecto del 41% en noviembre de 2009. Algo similar ocurre en los EE.UU., donde otra encuesta (mar.-2010) reveló que el 48% de los norteamericanos piensa que “la gravedad del cambio climático ha sido exagerada”.

Vivimos en la era de la globalización y ante las multinacionales el ser humano es manipulado de manera reiterada y ostensible como un auténtico títere, reduciéndole su capacidad de maniobra, de decisión, y anulando su voluntad. El grado de manipulación es siempre directamente proporcional a la información que posee una persona.

Muchas multinacionales presionan y compran la voluntad de los científicos independientes para que determinados aspectos que les pueden perjudicar no sean investigados, o simplemente que no divulguen los resultados de sus investigaciones. Para ello, desinforman en los medios de comunicación social e intoxican a la opinión pública para dividirla, manipulan a los políticos, crean asociaciones o fundaciones aparentemente independientes que promocionan tecnologías contaminantes y peligrosas.

Finalmente, recordemos que el cinismo de algunos políticos, multinacionales y grupos de presión (lobbys), y su doble moral no dejan lugar a dudas y el ciudadano frecuentemente es manipulado, por lo que debe filtrar adecuadamente la información que le llega, porque una sociedad más informada en lo científico es más libre. Por tanto, promovamos la cultura científica porque beneficia a toda la sociedad.

Más info: En el libro La salud que viene pueden encontrar un capítulo dedicado a la geoingeniería que documenta estas prácticas.

Fuente:
http://www.migueljara.com/2010/10/23/mercaderes-de-la-duda/

viernes, 9 de diciembre de 2011

Alineamiento universal.


¿Universo uniforme en todas direcciones? Los científicos esperan respuestas que podrían cambiar nuestra concepción del infinito que nos rodea.
Las galaxias podrían estarse moviendo más rápido en ciertas direcciones.

Por Michael Moyer

El Universo no tiene centro ni bordes, ninguna región especial metida entre las galaxias y la luz. No importa adonde uno mire, es lo mismo – o así pensaban los Físicos. Este principio cosmológico – uno de los pilares de la comprensión moderna del Universo – esta ahora en duda a medida que los astrónomos encuentran evidencia, sutil pero creciente, de una dirección especial en el espacio.

La primera información y la mejor establecida viene de las microondas cósmicas de fondo (MCF), el así llamado período posterior al Big Bang. Como se esperaba, este período no es perfectamente uniforme – puntos fríos y calientes aparecen desperdigados en el cielo. En años recientes, sin embargo, los científicos han descubierto que estos puntos no están tan distribuidos al azar como parecía ser en un principio – sino que se alinean en un patrón que apunta en una dirección espacial en el espacio. Los cosmólogos de manear teatral lo han bautizado como el “eje del mal”.

Hay más pistas de una flecha cósmica las cuales provienen de estudios de las supernovas, cataclismos estelares que brevemente opacan galaxias enteras. Los cosmólogos han estado usando las supernovas para mapear la expansión acelerada del universo (una tarea que se ganó el Premio Nobel en Física de este año). Los estudios estadísticos detallados revelan que las supernovas se están moviendo incluso más rápido en una línea que se aleja ligeramente del eje del mal. De manera similar, los astrónomos han medido grupos de galaxias desperdigándose por el espacio a millones de millas por hora hacia un área en el cielo austral.

Qué podría significar todo esto? Tal vez nada. “Podría ser una casualidad,”dice Dragan Huterer, un cosmólogo de la Universidad de Michigan en Ann Arbor, o podría ser un sutil error que se ha metido en los datos (a pesar de cuidadosos esfuerzos). O, dice Huterer, tal vez estamos viendo las primeras señales de “algo sorprendente”. La primera explosión expansiva del universo pudo haber durado un poco más de lo que pensamos, introduciendo una inclinación que persiste hasta hoy. Otra posibilidad es que en escalas mayores, el universo podría estar enrollado como un tubo, curvado en una dirección y plano en las otras, de acuerdo a Glenn D. Starkman, un cosmólogo de la Universidad Case Western Reserve. De manera alternativa, la así llamada energía oscura – la desconcertante materia que acelera la expansión del universo – podría actuar de manera diferente en diferentes lugares.

Por ahora, los datos son preliminares – señales sutiles de que algo puede estar equivocado en la forma en que entendemos el universo. Los científicos aguardan impacientes la información del satélite Planck, el cual se encuentra midiendo las MCF en un punto tranquilo a 930.000 millas. Esto confirmará anteriores mediciones del eje del mal o mostrará que las mismas son efímeras. Hasta entonces, el universo podría estar apuntando a cualquier parte.

Fuente:
www.scientificamerican.com

Virus Sincicial Respiratorio: convocan a participar en estudio para vacuna infantil

Un equipo de científicos en Rosario participa de un estudio internacional para desarrollar una vacuna pediátrica intranasal. El objetivo es ...