Por www.sinpermiso.info 
En este artículo  publicado recientemente en la prestigiosa revista científica británica Nature,   Dan Kahan aborda el problema de las dificultades a que se enfrenta la  comunicación  a la opinión pública del conocimiento científico logrado  por los especialistas  en un mundo políticamente polarizado y con unos  medios de comunicación conservadoramente  sesgados y banderizos. 
Arreglando las fallas de las comunicaciones 
Traducción: Jordi Mundó
  
Un  famoso experimento realizado por psicólogos en la  década de 1950  consistió en pasar una grabación de un partido de fútbol  americano a  estudiantes de dos universidades que disputaban la Ivy League; en  el  transcurso del mismo quedaba patente que los árbitros tomaban decisiones   harto controvertidas contra uno de los dos equipos. Cuando los  estudiantes del  equipo que resultó favorecido fueron entrevistados para  recabar su opinión  sobre el desempeño arbitral, resultó que detectaron  menos de la mitad de  infracciones cometidas por su equipo de las que  aseguraban haber visto los  estudiantes de la universidad rival. Los  investigadores llegaron a la  conclusión de que los vínculos grupales  habían motivado que los estudiantes de  ambas universidades  inconscientemente hubieran mirado la cinta con un sesgo  favorable a su  institución.[1] 
Las  investigaciones realizadas desde entonces nos  permiten inferir que los  ciudadanos corrientes reaccionan de un modo muy  parecido cuando deben  enfrentarse a evidencias científicas sobre riesgos  sociales. La gente  tiene una fuerte predisposición a inclinarse por la opción  que refuerza  su conexión con aquellos con los que ha contraído compromisos que   considera que son importantes. La consecuencia de esto es que el debate   científico público tiende a polarizarse. Los grupos que tienen  posiciones  antagónicas acerca de "asuntos culturales" como el aborto,  el matrimonio entre  personas del mismo sexo o la oración en la escuela  resultan ser también los que  tienen las discrepancias más enconadas  sobre la certeza del cambio climático o  sobre la seguridad de los  cementerios nucleares subterráneos. 
La  capacidad de las sociedades democráticas para  proteger el bienestar de  sus ciudadanos dependerá en gran medida de que  hallemos un modo de  neutralizar esta guerra cultural sobre los datos empíricos.   Desafortunadamente, las teorías dominantes en el ámbito de la  comunicación  científica no ayudan a revertir esta situación. Muchos  expertos atribuyen la  controversia política sobre todo lo relacionado  con el riesgo a la complejidad  del conocimiento científico subyacente o  a la insuficiente difusión de la  información disponible. Pero si el  problema fuera éste, lo normal sería  encontrarnos con que las creencias  que la gente tiene sobre el riesgo  medioambiental, la salud pública o  el control del crimen estuvieran  distribuidas de forma aleatoria, o de  acuerdo con los distintos niveles de  educación, pero en modo alguno  vinculadas a una determinada perspectiva moral.  Existe una gran  variedad de sesgos cognitivos que distorsionan la percepción  del riesgo  que pueda tener una persona –por ejemplo, el fijar la atención en   peligros muy llamativos o el refuerzo de los patrones de interacción  social–,  pero éstos no bastan para explicar por qué las personas con  posiciones  moralmente opuestas reaccionan de un modo distinto ante los  mismos datos  científicos. 
Un  proceso que explicaría esta forma distintiva de  polarización es la  "cognición cultural". La cognición cultural hace referencia  a la  influencia que tienen los valores grupales –relacionados con la igualdad  y  la autoridad, el individualismo y el sentido de comunidad– sobre las   percepciones de los distintos riesgos y las creencias que se derivan  de esas  percepciones.[2,3] Actualmente, a  través de un  proyecto de investigación en el que participo junto con Donald  Braman  de la George Washington Law School de Washington DC, Geoffrey Cohen de   la Stanford University en Palo Alto, California, John Gastil de la  University  of Washington, Seattle, y Paul Slovic de la University of  Oregon, en Eugene,  estamos estudiando los procesos mentales que andan  por detrás de la cognición  cultural. 
Los  ciudadanos ven los debates científicos como  contiendas entre facciones  culturales enfrentadas en una guerra. Por ejemplo,  en general a las  personas les desconcierta que un comportamiento que consideran  noble y  apropiado en realidad pueda resultar perjudicial para el conjunto de la   sociedad, del mismo modo que les turba que un comportamiento que a  ellas les  parezca abyecto pueda contribuir al bien común. Puesto que  aceptar algo así  abriría una brecha entre ellas y los suyos, tienen una  fuerte predisposición  emocional a rechazar tales argumentos. 
Tomar partido 
Nuestra  investigación apunta a que esta forma de  "cognición protectora" es una  de las causas más importantes del conflicto  político existente sobre  la aceptación de la bondad de los datos científicos  acerca del cambio  climático y de otros riesgos ambientales. Las personas con  valores  individualistas, que aprecian la iniciativa personal, y que también   tienen fuertes valores jerárquicos, que respetan la autoridad, tienden a   desestimar las evidencias de los riesgos ambientales, puesto que una  aceptación  generalizada de estas evidencias conllevaría ulteriores  restricciones sobre el  comercio y la industria, actividades que valoran  sobremanera. En cambio, las  personas que tienen valores más  igualitarios y procomunitarios desconfían del  comercio y de la  industria, puesto que los conciben como fuentes de  desigualdades  injustas. Por eso son más propensas a creer que este tipo de   actividades conllevan riesgos inaceptables y que es preceptivo  restringirlas.  Hemos hallado que estas diferencias explican de una  forma más completa las  divergencias en las percepciones de los riesgos  medioambientales de lo que  consiguen hacerlo los factores de género,  raza, ingreso, nivel educativo,  ideología política, personalidad o  cualquier otra característica individual.[4] 
La  cognición cultural también causa que la gente  interprete las nuevas  evidencias de un modo sesgado que refuerza sus  predisposiciones. Como  resultado, los grupos que albergan valores opuestos a  menudo acaban más  polarizados –no menos– cuando reciben información de carácter   científico. 
En  un estudio examinamos cómo este proceso puede tener  alguna influencia  sobre las percepciones de la gente sobre los riesgos de la   nanotecnología. Descubrimos que, en relación a un grupo equivalente de  personas  utilizado como grupo de control, el grupo de gente a la que se  le proporcionó  información neutral y equilibrada inmediatamente se  escindió en facciones muy  polarizadas que eran consistentes con sus  predisposiciones culturales hacia  riesgos ambientales que les  resultaban más familiares, como la energía nuclear  y los alimentos  genéticamente modificados.[5] 
Otro  caso de estudio importante es el relacionado con  la pugna política que  paralizó un plan para vacunar a las chicas jóvenes de  Estados Unidos  para prevenirlas del virus que causa el cáncer de cuello de  útero. 
Naturalmente,  puesto que la mayor parte de la gente no  está en condiciones de  evaluar técnicamente los datos por sí misma, hay  una cierta propensión a  creerse lo que digan expertos que se consideran  fiables. Pero la  cognición cultural también interviene aquí. Hemos descubierto  que los  legos consideran dignos de crédito a los científicos que en apariencia   comparten sus mismos valores. Ésta fue la conclusión a la que llegamos  en un  estudio que realizamos acerca de las actitudes de los  estadounidenses en  relación a la vacunación de las jóvenes escolares  para la prevención del virus  del papiloma humano. Este virus de  transmisión sexual constituye la primera  causa de cáncer de cuello de  útero. Los Centros públicos para el Control y  Prevención de  Enfermedades de Estados Unidos (CDC, en inglés) recomendaron en  2006  que la vacuna se administrara de forma rutinaria a chicas de entre 11 y  12  años, edades anteriores a la posible exposición al virus. Esta  propuesta ha  acabado languideciendo en medio de una intensa disputa  política, en la que los  críticos han sostenido que la vacuna tiene  graves efectos secundarios y que  hará aumentar la práctica no segura  del sexo entre los adolescentes. 
Para  contrastar cómo la opinión de los expertos  influye en este debate,  nuestro equipo elaboró argumentos a favor y en contra  de la vacunación  obligatoria. Se trataba de que estos argumentos se los  aprendieran unos  expertos masculinos ficticios, cuya apariencia (en un caso  bien  trajeados y luciendo canas; en otro con vaqueros y corbata) y supuesta   titulación pretendían hacerles aparentar perspectivas culturales  distintas.  Cuando el experto percibido con valores jerárquicos e  individualistas criticó  la recomendación de los CDC, las personas que  compartían esos mismos valores y  que tenían predisposición a pensar que  las vacunas entrañan serios riesgos  acentuaron aún más su opinión  contraria a la vacunación. Asimismo, cuando el  experto percibido como  igualitarista y procomunitario argumentó a favor de la  seguridad de la  vacuna, las personas que compartían esos valores se reafirmaron  en su  postura favorable a la vacunación. Pero cuando se modificaron los   parámetros, haciendo que el experto con aparentes valores jerárquicos   defendiera las bondades de la vacunación obligatoria y que el  igualitarista se  opusiera a la misma, entonces las personas cambiaban  de opinión y desaparecía  la polarización.[6] 
Animar al mismo equipo 
Si  se toman estos resultados de forma conjunta, vemos  que la constatación  de esta dinámica ayuda a explicar la peculiar polarización  cultural  sobre temas científicos que hoy existe en Estados Unidos y en otros   lugares. A semejanza de cómo actúan los aficionados en un enfrentamiento   deportivo, parece claro que las personas tratan las evidencias de  forma  selectiva, generalmente de un modo que favorece una mayor  implicación emocional  con el grupo al que pertenecen. En asuntos que  van desde el cambio climático al  control de armas, pasando por la  biotecnología y la política antiterrorista,  las personas se dejan guiar  por lo que deberían sentir, y luego creer, teniendo  muy en cuenta los  aplausos y abucheos del público del equipo de casa. 
Pero,  a diferencia de los aficionados deportivos que  asisten a un partido,  los ciudadanos que sostienen perspectivas culturales  opuestas en  realidad están pegando gritos de ánimo a favor de lo mismo: la  salud,  la seguridad y el bienestar económico de su sociedad. ¿Hay algún modo de   corregir la tendencia de la cognición cultural a interferir en la  capacidad de  los ciudadanos para ponerse de acuerdo sobre qué les está  diciendo la ciencia  en cada momento sobre cómo alcanzar este objetivo  común? 
Hoy  sabemos explicar muchas cosas relacionadas con los  mecanismos que  andan por detrás de la cognición cultural, pero vamos con  retraso en la  investigación sobre cómo controlarla o encauzarla. Sin embargo,   existen dos técnicas de comunicación del conocimiento científico que  pueden ser  de gran ayuda. 
Un  método, que se ha encargado de examinar en  profundidad Geoffrey Cohen,  consiste en presentar la información con un enfoque  que no sea visto  como una amenaza a los valores que la gente tiene, sino que  esté en  consonancia con los mismos.[7] Como  mis colegas y yo  creemos haber demostrado, las personas tienden a oponer  resistencia  cuando se hallan ante evidencias científicas que pueden conllevar   restricciones sobre actividades que su grupo tiene en gran estima.  Sabiendo  esto, si las mismas evidencias científicas se presentan de un  modo que no  choque frontalmente con sus compromisos, inmediatamente se  muestran mucho más  receptivas.[8] 
Por  ejemplo, las personas con valores individualistas  se resisten a  aceptar la evidencia científica de que el cambio climático supone  una  seria amenaza puesto que asumir tal supuesto implicaría aceptar también  que  la principal solución pasa por limitar las emisiones de carbono por  parte de la  industria. Sin embargo, es probable que estuvieran más  dispuestas a examinar  las evidencias si se les hiciera patente que  entre las posibles soluciones al  cambio climático también se podrían  tener en cuenta la energía nuclear y la  geoingeniería, sectores  económicos que para ellas significan aumento de empleo  de recursos  humanos. De un modo parecido, en el caso de las personas que tienen  una  perspectiva más igualitarista se podría disminuir su propensión a  rechazar  las evidencias sobre la seguridad de la nanotecnología si en  vez de insistir en  la utilidad que ésta tendría para la fabricación de  bienes de consumo se  lograra que llegasen a tomar conciencia del papel  positivo que la  nanotecnología podría jugar en la protección ambiental. 
La  segunda técnica a utilizar en punto a mitigar el  conflicto público  sobre las evidencias científicas tiene que ver con asegurarse  de que la  información relevante es evaluada críticamente por un grupo   heterogéneo de expertos. En nuestro experimento con la vacuna para la   prevención del virus del papiloma humano se consiguió reducir  substancialmente  la polarización cuando las personas de ambos bandos  veían que había expertos  supuestamente afines moralmente cuyas  opiniones científicas eran diversas. La  gente siente que vale la pena  tomar en consideración otras opciones cuando  detecta que un miembro  reconocible de su comunidad cultural las acepta. Así,  por ejemplo, si a  un portavoz al que todos reconocen la condición de padre  tradicional  que tiene una concepción jerárquica del mundo se le brindara la   oportunidad de defender posiciones distintas de la típicas de su grupo,   resultaría mucho más fácil disipar cualquier duda sobre la existencia  de  cualquier posible asociación entre la vacunación obligatoria contra  el virus  del papiloma humano y el consentimiento de prácticas sexuales  permisivas. 
No  creo que sea una simplificación exagerada decir que  la ciencia  necesita venderse mejor. Sin embargo, a diferencia de la publicidad   comercial, la finalidad de estas técnicas no es la de inducir al público  a  aceptar una conclusión predeterminada, sino crear un contexto  favorable para  que la gente pueda permitirse tener la mente abierta y  realizar una evaluación  lo menos sesgada posible de la mejor  información científica disponible. 
Aunque  estas recomendaciones son bastante simples, lo  que vemos habitualmente  es que los comunicadores científicos no las tienen en  absoluto en  cuenta. El enfoque preponderante se basa en inundar a la opinión   pública con la mayor cantidad de datos posible bajo el supuesto de que  la  verdad se abrirá paso por sí misma y al final ahogará a sus  enemigos. Sin  embargo, cuando la verdad conlleva una seria amenaza para  los valores culturales  de la gente, pretender que ésta siga con la  cabeza bajo el agua no hace más que  reforzar su hostilidad y aumentar  su deseo de dar todo su apoyo a argumentos  alternativos,  independientemente de si estos son un desvarío carente de toda   evidencia. Este tipo de reacción se ve substancialmente reforzada  cuando, como  ocurre a menudo, el mensaje lo transmiten comunicadores  públicos que están  indudablemente vinculados a perspectivas o estilos  culturales concretos; y se  alcanza el colmo de la polarización cuando  esta clase de publicistas se enredan  en una retórica partidista con la  que ridiculizan a sus oponentes  calificándolos de corruptos o  imbéciles. Esta forma de abordar la comunicación  del conocimiento  científico hace que los ciudadanos vean los debates científicos  como  contiendas entre facciones culturales enfrentadas en una guerra, y que   tomen partido según esta lógica. 
Tenemos  que aprender a presentar mejor la información  en formatos que conecten  bien con grupos culturales diversos, y debemos  aprender a estructurar  mejor el debate con el fin de evitar la polarización  política. Si  queremos que la elaboración de políticas públicas se haga a partir  de  la mejor información científica disponible, entonces necesitamos  disponer de  una teoría del riesgo comunicativo que explique  cumplidamente todos los efectos  que tiene la cultura en nuestros  procesos de toma de decisiones.  
Referencias bibliográficas 
- Hastorf, A. H. & Cantril, H. J. Abnorm.       Soc. Psychol. 49, 129–134 (1954).
- Douglas, M. & Wildavsky, A. B. Risk and       Culture: An Essay on the Selection of Technical and Environmental Dangers.       (Univ.       California Press, 1982).
- DiMaggio, P. Annu. Rev. Sociol. 23,       263–287 (1997).
- Kahan,       D. M., Braman, D., Gastil, J., Slovic, P. & Mertz, C. K. J. Empir.       Legal Stud. 4, 465–505 (2007).
- Kahan,       D. M., Braman, D., Slovic, P., Gastil, J. & Cohen, G. Nature       Nanotechnol. 4, 87–91 (2009).
- Kahan,       D. M., Braman, D., Cohen, G. L., Slovic, P. & Gastil, J. Law Human       Behav, (en prensa).
- Cohen, G. L., Aronson, J. & Steele, C. M. Pers.       Soc. Psychol. Bull. 26, 1151–1164 (2000).
- Cohen, G. L. et al. J. Pers. Soc. Psychol.       B. 93, 415–430 (2007).
Dan Kahan  es un reputado jurista de la Yale Law School, New Haven, Connecticut.   Antiguo asistente del fallecido juez Thurgood Marshall (primer juez   afroamericano del Tribunal Supremo de Estados Unidos), actualmente  desarrolla  un ambicioso programa de investigación sobre cognición  cultural y percepción  social del riesgo.
Fuente:
www.sinpermiso.info