Por www.sinpermiso.info
En este artículo publicado recientemente en la prestigiosa revista científica británica Nature, Dan Kahan aborda el problema de las dificultades a que se enfrenta la comunicación a la opinión pública del conocimiento científico logrado por los especialistas en un mundo políticamente polarizado y con unos medios de comunicación conservadoramente sesgados y banderizos.
Arreglando las fallas de las comunicaciones
Traducción: Jordi Mundó
Un famoso experimento realizado por psicólogos en la década de 1950 consistió en pasar una grabación de un partido de fútbol americano a estudiantes de dos universidades que disputaban la Ivy League; en el transcurso del mismo quedaba patente que los árbitros tomaban decisiones harto controvertidas contra uno de los dos equipos. Cuando los estudiantes del equipo que resultó favorecido fueron entrevistados para recabar su opinión sobre el desempeño arbitral, resultó que detectaron menos de la mitad de infracciones cometidas por su equipo de las que aseguraban haber visto los estudiantes de la universidad rival. Los investigadores llegaron a la conclusión de que los vínculos grupales habían motivado que los estudiantes de ambas universidades inconscientemente hubieran mirado la cinta con un sesgo favorable a su institución.[1]
Las investigaciones realizadas desde entonces nos permiten inferir que los ciudadanos corrientes reaccionan de un modo muy parecido cuando deben enfrentarse a evidencias científicas sobre riesgos sociales. La gente tiene una fuerte predisposición a inclinarse por la opción que refuerza su conexión con aquellos con los que ha contraído compromisos que considera que son importantes. La consecuencia de esto es que el debate científico público tiende a polarizarse. Los grupos que tienen posiciones antagónicas acerca de "asuntos culturales" como el aborto, el matrimonio entre personas del mismo sexo o la oración en la escuela resultan ser también los que tienen las discrepancias más enconadas sobre la certeza del cambio climático o sobre la seguridad de los cementerios nucleares subterráneos.
La capacidad de las sociedades democráticas para proteger el bienestar de sus ciudadanos dependerá en gran medida de que hallemos un modo de neutralizar esta guerra cultural sobre los datos empíricos. Desafortunadamente, las teorías dominantes en el ámbito de la comunicación científica no ayudan a revertir esta situación. Muchos expertos atribuyen la controversia política sobre todo lo relacionado con el riesgo a la complejidad del conocimiento científico subyacente o a la insuficiente difusión de la información disponible. Pero si el problema fuera éste, lo normal sería encontrarnos con que las creencias que la gente tiene sobre el riesgo medioambiental, la salud pública o el control del crimen estuvieran distribuidas de forma aleatoria, o de acuerdo con los distintos niveles de educación, pero en modo alguno vinculadas a una determinada perspectiva moral. Existe una gran variedad de sesgos cognitivos que distorsionan la percepción del riesgo que pueda tener una persona –por ejemplo, el fijar la atención en peligros muy llamativos o el refuerzo de los patrones de interacción social–, pero éstos no bastan para explicar por qué las personas con posiciones moralmente opuestas reaccionan de un modo distinto ante los mismos datos científicos.
Un proceso que explicaría esta forma distintiva de polarización es la "cognición cultural". La cognición cultural hace referencia a la influencia que tienen los valores grupales –relacionados con la igualdad y la autoridad, el individualismo y el sentido de comunidad– sobre las percepciones de los distintos riesgos y las creencias que se derivan de esas percepciones.[2,3] Actualmente, a través de un proyecto de investigación en el que participo junto con Donald Braman de la George Washington Law School de Washington DC, Geoffrey Cohen de la Stanford University en Palo Alto, California, John Gastil de la University of Washington, Seattle, y Paul Slovic de la University of Oregon, en Eugene, estamos estudiando los procesos mentales que andan por detrás de la cognición cultural.
Los ciudadanos ven los debates científicos como contiendas entre facciones culturales enfrentadas en una guerra. Por ejemplo, en general a las personas les desconcierta que un comportamiento que consideran noble y apropiado en realidad pueda resultar perjudicial para el conjunto de la sociedad, del mismo modo que les turba que un comportamiento que a ellas les parezca abyecto pueda contribuir al bien común. Puesto que aceptar algo así abriría una brecha entre ellas y los suyos, tienen una fuerte predisposición emocional a rechazar tales argumentos.
Tomar partido
Nuestra investigación apunta a que esta forma de "cognición protectora" es una de las causas más importantes del conflicto político existente sobre la aceptación de la bondad de los datos científicos acerca del cambio climático y de otros riesgos ambientales. Las personas con valores individualistas, que aprecian la iniciativa personal, y que también tienen fuertes valores jerárquicos, que respetan la autoridad, tienden a desestimar las evidencias de los riesgos ambientales, puesto que una aceptación generalizada de estas evidencias conllevaría ulteriores restricciones sobre el comercio y la industria, actividades que valoran sobremanera. En cambio, las personas que tienen valores más igualitarios y procomunitarios desconfían del comercio y de la industria, puesto que los conciben como fuentes de desigualdades injustas. Por eso son más propensas a creer que este tipo de actividades conllevan riesgos inaceptables y que es preceptivo restringirlas. Hemos hallado que estas diferencias explican de una forma más completa las divergencias en las percepciones de los riesgos medioambientales de lo que consiguen hacerlo los factores de género, raza, ingreso, nivel educativo, ideología política, personalidad o cualquier otra característica individual.[4]
La cognición cultural también causa que la gente interprete las nuevas evidencias de un modo sesgado que refuerza sus predisposiciones. Como resultado, los grupos que albergan valores opuestos a menudo acaban más polarizados –no menos– cuando reciben información de carácter científico.
En un estudio examinamos cómo este proceso puede tener alguna influencia sobre las percepciones de la gente sobre los riesgos de la nanotecnología. Descubrimos que, en relación a un grupo equivalente de personas utilizado como grupo de control, el grupo de gente a la que se le proporcionó información neutral y equilibrada inmediatamente se escindió en facciones muy polarizadas que eran consistentes con sus predisposiciones culturales hacia riesgos ambientales que les resultaban más familiares, como la energía nuclear y los alimentos genéticamente modificados.[5]
Otro caso de estudio importante es el relacionado con la pugna política que paralizó un plan para vacunar a las chicas jóvenes de Estados Unidos para prevenirlas del virus que causa el cáncer de cuello de útero.
Naturalmente, puesto que la mayor parte de la gente no está en condiciones de evaluar técnicamente los datos por sí misma, hay una cierta propensión a creerse lo que digan expertos que se consideran fiables. Pero la cognición cultural también interviene aquí. Hemos descubierto que los legos consideran dignos de crédito a los científicos que en apariencia comparten sus mismos valores. Ésta fue la conclusión a la que llegamos en un estudio que realizamos acerca de las actitudes de los estadounidenses en relación a la vacunación de las jóvenes escolares para la prevención del virus del papiloma humano. Este virus de transmisión sexual constituye la primera causa de cáncer de cuello de útero. Los Centros públicos para el Control y Prevención de Enfermedades de Estados Unidos (CDC, en inglés) recomendaron en 2006 que la vacuna se administrara de forma rutinaria a chicas de entre 11 y 12 años, edades anteriores a la posible exposición al virus. Esta propuesta ha acabado languideciendo en medio de una intensa disputa política, en la que los críticos han sostenido que la vacuna tiene graves efectos secundarios y que hará aumentar la práctica no segura del sexo entre los adolescentes.
Para contrastar cómo la opinión de los expertos influye en este debate, nuestro equipo elaboró argumentos a favor y en contra de la vacunación obligatoria. Se trataba de que estos argumentos se los aprendieran unos expertos masculinos ficticios, cuya apariencia (en un caso bien trajeados y luciendo canas; en otro con vaqueros y corbata) y supuesta titulación pretendían hacerles aparentar perspectivas culturales distintas. Cuando el experto percibido con valores jerárquicos e individualistas criticó la recomendación de los CDC, las personas que compartían esos mismos valores y que tenían predisposición a pensar que las vacunas entrañan serios riesgos acentuaron aún más su opinión contraria a la vacunación. Asimismo, cuando el experto percibido como igualitarista y procomunitario argumentó a favor de la seguridad de la vacuna, las personas que compartían esos valores se reafirmaron en su postura favorable a la vacunación. Pero cuando se modificaron los parámetros, haciendo que el experto con aparentes valores jerárquicos defendiera las bondades de la vacunación obligatoria y que el igualitarista se opusiera a la misma, entonces las personas cambiaban de opinión y desaparecía la polarización.[6]
Animar al mismo equipo
Si se toman estos resultados de forma conjunta, vemos que la constatación de esta dinámica ayuda a explicar la peculiar polarización cultural sobre temas científicos que hoy existe en Estados Unidos y en otros lugares. A semejanza de cómo actúan los aficionados en un enfrentamiento deportivo, parece claro que las personas tratan las evidencias de forma selectiva, generalmente de un modo que favorece una mayor implicación emocional con el grupo al que pertenecen. En asuntos que van desde el cambio climático al control de armas, pasando por la biotecnología y la política antiterrorista, las personas se dejan guiar por lo que deberían sentir, y luego creer, teniendo muy en cuenta los aplausos y abucheos del público del equipo de casa.
Pero, a diferencia de los aficionados deportivos que asisten a un partido, los ciudadanos que sostienen perspectivas culturales opuestas en realidad están pegando gritos de ánimo a favor de lo mismo: la salud, la seguridad y el bienestar económico de su sociedad. ¿Hay algún modo de corregir la tendencia de la cognición cultural a interferir en la capacidad de los ciudadanos para ponerse de acuerdo sobre qué les está diciendo la ciencia en cada momento sobre cómo alcanzar este objetivo común?
Hoy sabemos explicar muchas cosas relacionadas con los mecanismos que andan por detrás de la cognición cultural, pero vamos con retraso en la investigación sobre cómo controlarla o encauzarla. Sin embargo, existen dos técnicas de comunicación del conocimiento científico que pueden ser de gran ayuda.
Un método, que se ha encargado de examinar en profundidad Geoffrey Cohen, consiste en presentar la información con un enfoque que no sea visto como una amenaza a los valores que la gente tiene, sino que esté en consonancia con los mismos.[7] Como mis colegas y yo creemos haber demostrado, las personas tienden a oponer resistencia cuando se hallan ante evidencias científicas que pueden conllevar restricciones sobre actividades que su grupo tiene en gran estima. Sabiendo esto, si las mismas evidencias científicas se presentan de un modo que no choque frontalmente con sus compromisos, inmediatamente se muestran mucho más receptivas.[8]
Por ejemplo, las personas con valores individualistas se resisten a aceptar la evidencia científica de que el cambio climático supone una seria amenaza puesto que asumir tal supuesto implicaría aceptar también que la principal solución pasa por limitar las emisiones de carbono por parte de la industria. Sin embargo, es probable que estuvieran más dispuestas a examinar las evidencias si se les hiciera patente que entre las posibles soluciones al cambio climático también se podrían tener en cuenta la energía nuclear y la geoingeniería, sectores económicos que para ellas significan aumento de empleo de recursos humanos. De un modo parecido, en el caso de las personas que tienen una perspectiva más igualitarista se podría disminuir su propensión a rechazar las evidencias sobre la seguridad de la nanotecnología si en vez de insistir en la utilidad que ésta tendría para la fabricación de bienes de consumo se lograra que llegasen a tomar conciencia del papel positivo que la nanotecnología podría jugar en la protección ambiental.
La segunda técnica a utilizar en punto a mitigar el conflicto público sobre las evidencias científicas tiene que ver con asegurarse de que la información relevante es evaluada críticamente por un grupo heterogéneo de expertos. En nuestro experimento con la vacuna para la prevención del virus del papiloma humano se consiguió reducir substancialmente la polarización cuando las personas de ambos bandos veían que había expertos supuestamente afines moralmente cuyas opiniones científicas eran diversas. La gente siente que vale la pena tomar en consideración otras opciones cuando detecta que un miembro reconocible de su comunidad cultural las acepta. Así, por ejemplo, si a un portavoz al que todos reconocen la condición de padre tradicional que tiene una concepción jerárquica del mundo se le brindara la oportunidad de defender posiciones distintas de la típicas de su grupo, resultaría mucho más fácil disipar cualquier duda sobre la existencia de cualquier posible asociación entre la vacunación obligatoria contra el virus del papiloma humano y el consentimiento de prácticas sexuales permisivas.
No creo que sea una simplificación exagerada decir que la ciencia necesita venderse mejor. Sin embargo, a diferencia de la publicidad comercial, la finalidad de estas técnicas no es la de inducir al público a aceptar una conclusión predeterminada, sino crear un contexto favorable para que la gente pueda permitirse tener la mente abierta y realizar una evaluación lo menos sesgada posible de la mejor información científica disponible.
Aunque estas recomendaciones son bastante simples, lo que vemos habitualmente es que los comunicadores científicos no las tienen en absoluto en cuenta. El enfoque preponderante se basa en inundar a la opinión pública con la mayor cantidad de datos posible bajo el supuesto de que la verdad se abrirá paso por sí misma y al final ahogará a sus enemigos. Sin embargo, cuando la verdad conlleva una seria amenaza para los valores culturales de la gente, pretender que ésta siga con la cabeza bajo el agua no hace más que reforzar su hostilidad y aumentar su deseo de dar todo su apoyo a argumentos alternativos, independientemente de si estos son un desvarío carente de toda evidencia. Este tipo de reacción se ve substancialmente reforzada cuando, como ocurre a menudo, el mensaje lo transmiten comunicadores públicos que están indudablemente vinculados a perspectivas o estilos culturales concretos; y se alcanza el colmo de la polarización cuando esta clase de publicistas se enredan en una retórica partidista con la que ridiculizan a sus oponentes calificándolos de corruptos o imbéciles. Esta forma de abordar la comunicación del conocimiento científico hace que los ciudadanos vean los debates científicos como contiendas entre facciones culturales enfrentadas en una guerra, y que tomen partido según esta lógica.
Tenemos que aprender a presentar mejor la información en formatos que conecten bien con grupos culturales diversos, y debemos aprender a estructurar mejor el debate con el fin de evitar la polarización política. Si queremos que la elaboración de políticas públicas se haga a partir de la mejor información científica disponible, entonces necesitamos disponer de una teoría del riesgo comunicativo que explique cumplidamente todos los efectos que tiene la cultura en nuestros procesos de toma de decisiones.
Referencias bibliográficas
- Hastorf, A. H. & Cantril, H. J. Abnorm. Soc. Psychol. 49, 129–134 (1954).
- Douglas, M. & Wildavsky, A. B. Risk and Culture: An Essay on the Selection of Technical and Environmental Dangers. (Univ. California Press, 1982).
- DiMaggio, P. Annu. Rev. Sociol. 23, 263–287 (1997).
- Kahan, D. M., Braman, D., Gastil, J., Slovic, P. & Mertz, C. K. J. Empir. Legal Stud. 4, 465–505 (2007).
- Kahan, D. M., Braman, D., Slovic, P., Gastil, J. & Cohen, G. Nature Nanotechnol. 4, 87–91 (2009).
- Kahan, D. M., Braman, D., Cohen, G. L., Slovic, P. & Gastil, J. Law Human Behav, (en prensa).
- Cohen, G. L., Aronson, J. & Steele, C. M. Pers. Soc. Psychol. Bull. 26, 1151–1164 (2000).
- Cohen, G. L. et al. J. Pers. Soc. Psychol. B. 93, 415–430 (2007).
Dan Kahan es un reputado jurista de la Yale Law School, New Haven, Connecticut. Antiguo asistente del fallecido juez Thurgood Marshall (primer juez afroamericano del Tribunal Supremo de Estados Unidos), actualmente desarrolla un ambicioso programa de investigación sobre cognición cultural y percepción social del riesgo.
Fuente:
www.sinpermiso.info