Los avances en la ciencia y la tecnología están poniendo en duda cómo serán nuestras sociedades en un futuro muy próximo. La inteligencia artificial o la robótica plantean cuestiones que deben ser ampliamente consideradas si no queremos vernos sorprendidos por sus consecuencias. Hablamos con Julian Kinderlerer, que presidió el Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías. Su visión es, cuando menos, poco complaciente.
Jesús
Méndez. Agencia SINC.
Gran parte de las decisiones éticas modernas
tienen un pie en la ciencia y la tecnología. Así lo entendieron los
organizadores del congreso ESOF (EuroScience Open Forum), celebrado el mes pasado en la ciudad francesa de Toulouse.
“Los avances de la ciencia están cuestionando los valores fundamentales en que se basan nuestras sociedades”, escribían en el programa, justificando así la elección de la ética como uno de los cuatro ejes transversales del congreso. Algunas de estas cuestiones tienen que ver con los avances en la inteligencia artificial y la robótica así como sus efectos en el trabajo. Sobre ellas hablaron en distintas sesiones los miembros del Grupo Europeo de Ética (EGE, por sus siglas en inglés), que durante este año están redactando informes abordando estos problemas.
Hablamos en Toulouse con Julian Kinderlerer, que fue su presidente
entre 2011 y 2016. Bioquímico y profesor emérito de Derecho de la
Propiedad Intelectual en la Universidad de Ciudad del Cabo
(Sudáfrica), responde con voz suave y calmada. Sus palabras, sin
embargo, resuenan con un eco insospechado.
“La industria debe hacer una innovación responsable y reconocer su compromiso con los trabajadores”
¿Qué es el EGE y qué papel cumple? ¿Su opinión y sus informes son vinculantes para los gobiernos?
El EGE comenzó hace casi 30 años por una iniciativa de Jacques
Delors, que era por entonces el presidente de la Comisión Europea. Se
trata de un pequeño grupo de quince personas: cinco abogados, cinco
científicos y cinco expertos de los ámbitos de la filosofía, la ética
e, incluso, la teología. Al principio, los temas que se trataban eran
sobre bioética, como el aborto o el uso de células madre, pero luego
fue ampliando la mirada. Nos pueden pedir directamente nuestra opinión
sobre temas concretos y podemos dar recomendaciones incluso a los
parlamentos, pero nuestros informes no son vinculantes. Nuestra labor
es forzarlos a pensar.
El próximo informe tratará
sobre el futuro del trabajo. Hay corrientes que aseguran que los
robots y la automatización no eliminarán puestos de trabajo, que se
reconducirán hacia actividades más creativas. Otros afirman que se
destruirá hasta el 50% de los empleos. ¿Cuál es su opinión?
Es una pregunta difícil de responder, pero déjame que le cuente una
anécdota. Hace dos años estuve en Corea del Sur, y una de las
compañías alemanas más importantes dio una charla sobre una fábrica
automatizada que habían construido en Seúl. En ella, trabajaban cinco
personas en total, aunque fabricaban una gran cantidad de máquinas muy
complejas. De esos cinco empelados, tres se dedicaan a la limpieza y
los otros dos eran ingenieros que trabajaban desde Alemania. Yo
pregunté: ¿Qué piensan hacer con la gente que ya no tendrá trabajo en
estas fábricas? La respuesta fue: “No es nuestro problema, es un
problema de los gobiernos”. Yo creo que eso no es aceptable, que la
industria debe hacer una innovación responsable y reconocer su
compromiso con los trabajadores.
Su postura es pesimista. ¿Qué piensa de quienes afirman que
los robots permitirán que nos dediquemos a tareas más ‘humanas’ y
creativas?
Sí, soy pesimista. Solemos pensar en las tareas repetitivas de los
trabajadores de una fábrica, pero también los abogados o los
arquitectos, por ejemplo, suelen tener muchas labores repetitivas,
que, por lo general, son las que pagan las facturas. Si las
eliminamos, solo unos pocos podrán dedicarse a la parte más creativa,
y, a la vez, su trabajo será más caro.
Julian Kinderlerer / Cortesía del entrevistado
¿Podremos actuar sobre estos problemas?
Sí, podemos mitigarlos, pero debe haber un reconocimiento de que el
trabajo remunerado no es el único trabajo. Debemos desligar estos dos
conceptos. Cuidar a los hijos: ¿Eso no es trabajo? Una solución
propuesta sería implantar una renta básica universal, aunque no tengo
claro que funcione. Para eso debería haber suficiente dinero, y aunque
los robots aumenten la producción tendría que haber suficientes
personas que compren lo que fabrican. Hay gente que piensa que
deberíamos cobrar impuestos a los robots.
“No estamos cobrando impuestos
adecuadamente a firmas como Apple o Amazon y su contribución a la
desaparición de trabajos es importante”
¿Está de acuerdo con eso?
No creo que haya que hacerlo directamente sobre los robots, sino
más bien sobre las compañías que los usan (sonríe). Esa podría ser una
manera de conseguir cierta renta básica. Pero ahora mismo no estamos
cobrando impuestos adecuadamente a compañías como Apple o Amazon y su
contribución a la desaparición de trabajos es importante.
¿Proponen alguna solución concreta desde el EGE?
Nosotros podemos plantear algunas, pero no es nuestra misión, sino
la de los políticos. Ellos nos piden que les forcemos a pensar: sobre
qué es un empleo y qué es trabajar. A partir de ahí, tienen que venir
las soluciones.
¿Qué pueden hacer la ciencia y la tecnología?
Lo que está claro es que la ciencia y la tecnología no se pueden detener. Desde luego, nunca se tuvo éxito al intentarlo.
Un problema reciente es el del uso de los algoritmos y la
inteligencia artificial que afectan cada vez más a nuestras vidas. Más
allá de recomendaciones de libros y viajes personalizados, ¿puede
decirnos algún problema y riesgo concreto al que no estemos prestando
atención?
¿Tienes una tarjeta de banco que uses para comprar en el
supermercado? Pues, al menos en Estados Unidos, el supermercado sabe
todo lo que has comprado en los últimos dos o tres años, ya sea
azúcar, carne o verduras. Eso se puede conectar con tus datos médicos y
los seguros pueden elevar sus tasas o incluso negártelo según tus
hábitos. Hay quien dice que la privacidad ha muerto. Iniciativas como
la nueva Ley de Protección de Datos están tratando de que siga
existiendo, al menos en Europa.
Otro gran problema es el de las noticias falsas y su interferencia incluso con las elecciones democráticas.
¿Es esto tan relevante? Hay investigadores que dicen que esto no es nuevo, que los medios siempre han condicionado a la opinión pública y que puede ser más un problema humano que de los algoritmos.
Puede ser, pero antes podías elegir qué periódico comprar. Ahora
Google, por ejemplo, tiene la posibilidad de saber lo que hay en tu
correo electrónico y usarlo para personalizar anuncios. Y Facebook ha
estado haciendo algo parecido. Es algo mucho más dirigido, mucho más
preciso e insistente.
“Los programadores deberían tener una
formación en ética, de forma que podamos aplicar una especie de leyes
de Asimov para los robots”
¿Qué podemos hacer frente a ello? Hay estudios que dicen que dedicarse a desmentirlas puede tener un efecto contraproducente y reforzar la conspiranoia…
Nosotros hemos desarrollado un sistema para saber si una web es
fiable o no y que de alguna manera aparezca una marca que le permita
al consumidor identificarlo. Pero no sabemos si funcionaría. Si
alguien tiene cáncer y lee una página que le dice que bebiendo unos
zumos se va a curar y otra página médica diciendo: lo siento, es
incurable… ¿qué va a hacer esa persona? Seguramente probará con el
zumo. Debemos pensar sobre eso.
Al hilo de la información en la red, hace poco se cerró
durante unas horas la página de Wikipedia en España protestando por
una nueva ley europea que pretende ponerles un canon por derechos de
autor y responsabilizarles si se infligen normas de copyright. ¿Qué piensa de esto?
En mi opinión, no es correcto. Cuando empezaron los servicios web
se consideraron algo similar a lo que ocurría en una conversación
entre dos usuarios de teléfono. La compañía no tenía ningún derecho ni
responsabilidad sobre lo que se decía en esa conversación. Lo que se
está diciendo con esta ley es que el medio no es neutro, no es
independiente, y eso es muy peligroso incluso para aspectos de
influencia y censura.
Volviendo a la inteligencia artificial, podemos fiarnos de
estos sistemas? Por ejemplo, si llegan a tomar decisiones médicas a
partir del big data…
No, creo que no podemos. Los programadores deberían tener una formación en ética, de forma que podamos aplicar una especie de leyes de Asimov
para los robots –que no hagan daño a los humanos, que cumplan sus
órdenes y que se protejan a sí mismos–. Pero no creo que tenga una
respuesta a si basta con que los principios de la programación sean
éticos. Ni siquiera los propios programadores la tienen.
La profesora Francesca Rossi cree que programar de esta forma puede ayudarnos a aprender y a comportarnos de forma ética. ¿Está de acuerdo?
En general sí, pero es difícil. Por ejemplo, un coche autónomo que,
ante un problema, tiene que decidir entre atropellar y matar a gente
que camina por la acera o al conductor. ¿Cómo programar eso? ¿Cómo se
compara una vida frente a otras?
No hay entonces unas reglas de Asimov universales que podamos usar.
No, no las hay.
¿Tiene alguna respuesta contundente la ética?
No hay comentarios:
Publicar un comentario