miércoles, 15 de abril de 2026

Publicidad, poder y riesgo: el lado menos visible del auge de la inteligencia artificial

Dos renuncias y las advertencias de dos premios Nobel agregan condimento al desarrollo histórico de la IA que estamos transitando.
 
Hitzig y Sharma: dos renuncias que llamaron la atención


Por Claudio Pairoba

Mrinank Sharma (jefe seguridad de Anthropic, la empresa desarrolladora de la IA Claude) renunció el 9 de febrero. En una carta que se hizo pública, Sharma comienza destacando los aspectos positivos de trabajar en la empresa y los aportes que pudo realizar. Entre ellos menciona conocer en mayor profundidad las causas de las sicofancias (cuando la IA da la respuesta que el usuario quiere escuchar), desarrollar y poner en funciones defensas en contra de los riesgos de bioterrorismo asistido por IA y escribir uno de los primeros reportes de seguridad para esta tecnología. También menciona un último proyecto para saber cómo los asistentes de IA podrían distorsionar nuestra humanidad.

En un mundo cargado de peligros y contradicciones, Sharma considera necesario un desarrollo de nuestra sabiduría que sea equiparable al avance tecnológico que hemos logrado. Si no, deberemos enfrentar las consecuencias. Menciona también que durante su tiempo en Anthropic ha visto lo difícil que es alinear valores y acciones así como las presiones para dejar de lado aquellas cuestiones que él considera como más importantes. Un dato no menor.

El informático se aleja para aportar desde su integridad y explorar las preguntas que tienen verdadero sentido para él. Sin demasiada claridad sobre sus próximos pasos, sí considera estudiar poesía. Para él, la verdad poética es una herramienta de conocimiento tan válida como la verdad científica. Palabras a tener en cuenta viniendo de un profesional del mundo informático.
 
Anthropic y ChatGPT. Dos empresas con renuncias que dan que hablar
 
Indudablemente, la experiencia en Anthropic marcó un antes y un después en su camino profesional. Formar parte del mundo donde se cocina la IA generó planteos filosóficos de suficiente peso como para llevarlo a renunciar a un puesto que, evidentemente, representaba un logro importante en su carrera profesional y al cual ingresó con mucho entusiasmo.

Dicho sea de paso, el informático cierra su carta de renuncia con un poema.

Pocos días después, renunció Zoë Hitzig, investigadora de OpenAI. La razón: la nueva política de anuncios en ChatGPT. En una interesante nota publicada en el New York Times, Hitzig explica que la gente le cuenta a ChatGPT cuestiones privadas alimentando un archivo individual sobre el cual se diseñarían anuncios publicitarios. Agrega que esto crea un potencial de manipulación que aún no podemos comprender o prevenir.

La investigadora no está en contra de la publicidad dentro de la plataforma pero considera que hay otros modelos que pueden considerarse. Recordemos que los ingresos por publicidad posibilitan que estas herramientas sean accesibles para más usuarios., no solo para aquellos que pueden pagarlas. 
 
Nuevamente el tema de la seguridad de la IA. Ahora con el agregado de la venta de publicidad 
 
Los nobeles advierten
En una nota anterior (Impacto del lenguaje en la programación de la IA), comenté que hablar de control e independencia de la IA en la misma oración es una contradicción. También mencionaba una declaración de Stephen Hawking en 2018 (Objetivos alineados): "Una súper inteligente IA será extremadamente buena en conseguir sus objetivos y si esos objetivos no están alineados con los nuestros, estamos en problemas”.

Lo que parecía ser una predicción basada en ciencia ficción ha ido construyendo una realidad cada vez más inquietante con declaraciones de peso como las del premio Nobel de Física 2024 Geoffrey Hinton. Considerado el padrino de la IA, Hinton compartió el premio por sus aportes al desarrollo de redes neuronales artificiales. En otras palabras, el sistema por el cual las computadoras aprenden.

El científico dejó Google en 2023, preocupado por los peligros de la inteligencia que él mismo ayudo a crear. Durante declaraciones con motivo del Nobel recibido, indicó que "no tenemos experiencia sobre lo que es tener cosas más inteligentes que nosotros". Destacando la importancia de los aportes que la IA tendrá en campos como la medicina también remarcó que deberíamos preocuparnos por que pueda salirse de control. Incluso llegó a pedir el cese del desarrollo de esta tecnología. "No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo", enfatizó.
 
Hinton y Laroche: voces para prestar atención

Desde entonces y en cada una de sus apariciones, sus conceptos acerca de la IA no han cambiado.

En 2025, durante una charla que dio junto al premio Nobel de Física 2012 Serge Haroche en Madrid, ambos investigadores coincidieron en que el futuro de la IA no será definido solo por la tecnología, sino por las decisiones humanas —políticas, éticas y sociales— que acompañen su desarrollo.

Por otra parte, difirieron en otras cuestiones como el plazo para la aparición de la inteligencia artificial general (5 a 20 años (Hinton) vs. hay una tendencia a sobreestimar la velocidad de desarrollo de estas tecnologías (Haroche)), creatividad (la IA ha mostrado formas incipientes (Hinton) vs. es esencialmente humana (Haroche)) y seguridad (el peligro está en los desarrolladores (Hinton) vs. el peligro está en los usuarios (Haroche)).

En relación al tema trabajo ambos coinciden en que la IA, por un lado eliminará tareas repetitivas pero por otro generará incertidumbre, tensiones sociales y pérdida de identidad laboral. Algo que ya estamos viendo.

En resumen, miradas desde el interior de las empresas que desarrollan distintas IAs junto con perspectivas de quienes, por su formación, han contribuido al desarrollo de esta plataforma tecnológica que ya forma parte de vastos sectores.

A seguir estando atentos.
 

Soy bioquímico, farmacéutico y doctor por la Universidad Nacional de Rosario. Máster en Análisis de Medios de Comunicación y Especialista en Comunicación Ambiental. Miembro de la Escuela de Comunicación Estratégica de Rosario y la Red Argentina de Periodismo Científico. Acreditado con la American Association for the Advancement of Science (Science) y la revista NatureCoach Transformacional Escuela Hacer Historia.

Suscribite a mi canal de YouTube para recibir publicaciones: youtube.com/@claudiopairoba
Instagram: @cpairoba
Más info: linktr.ee/cpairoba 
  


Enlaces relacionados
Renuncia Mrinank Sharma (jefe seguridad Anthropic)
https://x.com/JoanMarcRibes/status/2021678760869994878

Enlace a la carta: https://x.com/MrinankSharma/status/2020881722003583421

Descubrí por qué los chatbots son demasiado agradables

https://blog.donweb.com/ia-sicofancia-chatbots-agradables/

OpenAI está cometiendo los mismos errores que Facebook. Y renuncié
Zoe Hitzig – Empleada de Open AI

https://www.nytimes.com/es/2026/02/14/espanol/opinion/chatgpt-openai-anuncios.html

Geoffrey Hinton, el ganador del Nobel de Física que renunció a Google y denunció los peligros de la inteligencia artificial para la humanidad
https://www.bbc.com/mundo/articles/c8elg9j489eo

Our Future with AI | Nobel Prize Conversations Madrid 2025
https://www.youtube.com/live/EoRm8-IgqkY

Ola de despidos en EEUU por la inteligencia artificial: crecen las dudas sobre el impacto en la economía norteamericana
https://www.ambito.com/economia/ola-despidos-eeuu-la-inteligencia-artificial-crecen-las-dudas-el-impacto-la-norteamericana-n6265173
 

No hay comentarios:

Publicar un comentario

Publicidad, poder y riesgo: el lado menos visible del auge de la inteligencia artificial

Dos renuncias y las advertencias de dos premios Nobel agregan condimento al desarrollo histórico de la IA que estamos transitando.   Hitzig ...