Explorando otras cuestiones relacionadas con la IA que quedan opacadas por los avances en su desarrollo tecnológico.
La inteligencia artificial (IA) sigue creando oportunidades y cerrando caminos tradicionales que parecen volverse innecesarios cada vez con mayor frecuencia. Los entendidos insisten en que ahora es el momento de subirse al tren, aprendiendo cómo funciona y adaptándola a nuestras necesidades. Similar a lo que sucedió con la aparición de la Internet. Solo que ahora los tiempos se están acelerando y perder el tren podría ser mucho más costoso.
Situaciones que parecían de ciencia ficción aparecen cada vez con mayor asiduidad. Algo así como el andar diferenciando entre clones por una marca en alguna parte del cuerpo. Aún no hemos llegado a la singularidad tecnológica, ese momento en que la IA se vuelve más inteligente que toda la humanidad combinada (si bien algunos opinan que se anticipa cada vez más). De todas maneras, aún seguimos siendo testigos de fallas en la IA, situaciones que alimentan los temores de sus detractores. Pero además de estos errores, alucinaciones o comportamientos anómalos, la IA plantea cuestiones que exceden lo meramente tecnológico. Su impacto en nuestra salud mental y los vaivenes bursátiles derivados de empresas que podrían estar sobrevaloradas por la ola de entusiasmo mundial, son otros temas que merecen ser atendidos.
Durante ese período de descontrol, Grok también insultó a las autoridades turcas y polacas, lo cual determinó su bloqueo en Turquía y una denuncia ante la Unión Europea por parte de Polonia.
Investigación mediante, la empresa indicó que una actualización fallida causó el desbarajuste del chatbot durante 16 horas. Luego de dar las disculpas del caso, xAI declaró que el objetivo de Grok sigue siendo brindar respuestas útiles en sintonía con lo que buscan sus usuarios. Dicho sea de paso, varios usuarios notaron que Grok consulta las publicaciones de Musk antes de responder, algo que queda en evidencia al consultar la “cadena de pensamiento”, herramienta que muestra los pasos que sigue Grok antes de realizar una publicación.
![]() |
| Grok generó posteos aberrantes generando rechazo mundial |
Tampoco debemos olvidar que la IA puede emitir respuestas sesgadas, ya que se alimenta de toda la información disponible en la Internet. Estos contenidos pueden haber sido creados con sesgos de género, religión y edad entre otros.
IAs que chantajean y buscan “escapar”
En el mes de mayo, Anthropic presentó el informe de seguridad para su IA, Claude Opus 4. El mismo indicaba que esta IA buscaba su preservación pudiendo llegar a chantajear al sentirse en peligro. Además, detectaron que Claude puede recurrir a prácticas de autoexfiltración: copia sus conocimientos totales o parciales a otro entorno sin autorización ni indicación de sus desarrolladores. Nuevamente, el objetivo es preservarse, si bien este último caso no apareció de manera frecuente durante las pruebas.
Dado que ambos comportamientos se pusieron en evidencia cuando el desarrollo de esta IA estaba avanzado, los mismos están presentes en la versión final del sistema. La empresa indicó que no considera que los fallos detectados constituyan una amenaza real y que podrían presentarse en casos excepcionales.
![]() |
| Algunas IAs muestran comportamientos impensados |
Otro comportamiento extraño se verificó con o1, la IA de OpenIA. Esta versión, presentada en septiembre de 2024, protagonizó un inquietante episodio en julio de este año: al recibir la orden de desactivación se copió a sí misma en un servidor externo sin haber recibido la autorización de los desarrolladores. Al ser confrontada con este comportamiento, lo negó.
Un nuevo enfoque conceptual: la “crianza” de la IA
Song-Chun Zhu (decano del Institute for Artificial Intelligence en la Universidad de Pekin, Beijing) considera que es erróneo llamar inteligente a la IA que usamos actualmente y trabaja en el desarrollo de un modelo alternativo llamado inteligencia general artificial (IGA).
El investigador graduado en Harvard y director del Instituto Beijing para Inteligencia Artificial General (BIGAI por sus siglas en inglés), sostiene que comparar el modelo actual de IA y su propuesta de IGA es como equiparar loros que repiten y cuervos que pueden manejarse de manera autónoma.
Este nuevo enfoque para desarrollar una IA independiente ha llevado a Zhu a la creación de Tong Tong, la niña digital de 3-4 años. El objetivo: ver qué piensa y cómo aprende y toma decisiones. Esta forma de trabajo ha dado origen al test de Tong, el cual busca evaluar el grado de similitud de la inteligencia artificial comparándola con una inteligencia humana amplia. Tong Tong se desarrolla en un mundo virtual creado para determinar su habilidad para entenderlo así como sus motivaciones internas y comportamientos.
![]() |
| Tong Tong: una nueva forma de crear una IA (Foto: Zhen Chen y Xiaomeng Gao) |
El comportamiento de la IGA es similar al humano, con lo cual pueden aparecer riesgos de que no tome decisiones teniendo el bien de la Humanidad como fin último. De todas maneras, su arquitectura cognitiva hace posible que incorpore la regla de oro: trata a otros como te gustaría que te traten.
Zhu expresó que “el futuro de la IGA será una combinación de ciencia y filosofía” y que “las enseñanzas chinas del corazón son cruciales para guiar la IGA en obtener un comportamiento humano verdaderamente beneficioso”. Corazón y filosofía son dos palabras que no parecen abundar en los discursos referentes al desarrollo de la IA en Occidente.
Más allá de las cuestiones tecnológicas
También existen debates que involucran otras áreas además de las específicamente tecnológicas. Dos de ellas son el efecto que la IA tiene (y tendrá) en la salud mental y las cuestiones económico-financieras.
Impacto mental
El investigador Diego Fernández Slezak (director del Laboratorio de Inteligencia Artificial Aplicada de la Facultad de Ciencias Exactas y Naturales de la UBA) explica que “depender de forma excesiva de la Inteligencia Artificial tiene consecuencias cognitivas”. Advierte que delegar en la IA decisiones o tareas cotidianas puede conducir a lo que denomina sedentarismo cognitivo: una tendencia a dejar de ejercitar las propias capacidades mentales.
Según señala Fernández Slezak, “el concepto de sedentarismo cognitivo, popularizado por Mariano Sigman y Santiago Bilinkis, muestra que cuando uno cede constantemente una cierta capacidad a un dispositivo tecnológico, esa capacidad se va oxidando y se pierde. Eso no necesariamente es malo, porque puede dar lugar a nuevas habilidades. La clave es ser crítico y consciente de ese proceso”.
![]() |
| ¿Escribir solo o con la ayuda de la IA? Diferencias inquietantes |
Sobre este tema, un estudio del Instituto Tecnológico de Massachusetts concluye que la escritura sin asistencia de la IA incrementó la red de interacciones cerebrales mientras que la asistencia con IA reduce la conectividad neuronal total.
Es difícil saber las consecuencias del uso de la IA ya que esto recién ha comenzado. Según advierte Cristian Javier Garay, subsecretario de Investigaciones de la Facultad de Psicología de la UBA, “los efectos de la IA a nivel cognitivo son difíciles de establecer porque se trata de un fenómeno reciente. Sin embargo, ya se observa una sustitución indebida del apoyo humano, especialmente compleja en casos de crisis graves”.
![]() |
| La IA, aún en su fase inicial, ya impacta en la salud mental |
Más allá de los aspectos positivos de las tecnologías digitales en la promoción de la salud, como indica Garay, “la idea de estar siempre conectado, el aumento de horas laborales en detrimento del descanso, la disminución de las horas de sueño, la comparación con vidas y cuerpos idealizados, muchas veces distorsionados, se encuentran entre los problemas más comunes asociados a las tecnologías. Esto incrementa el riesgo de diferentes trastornos mentales, entre los cuales se encuentran los trastornos de ansiedad, los trastornos depresivos y los trastornos de la conducta alimentaria”.
Burbuja financiera. ¿Otra vez?
El entusiasmo con la IA se verifica en el boom de un mercado representado por cinco gigantes tecnológicos (Alphabet, Apple, Meta, Microsoft y Nvidia) que suman U$S15 billones.
Estas cifras enormes preocupan a algunos analistas que recuerdan lo que sucedió en el 2000: la burbuja de las puntocom. Distintos actores han manifestado sus temores con expresiones variadas: el Banco de Inglaterra ha hablado de corrección repentina ante un posible estallido de la burbuja IA, Sam Altman (CEO de OpenAI) se ha referido a la sobrevaloración de algunas áreas de la IA y Sundar Pachai (CEO de Google) ha usado la frase “momentos de irracionalidad” al referirse al burbujeante mundo de la IA. A pesar de esto, Google invierte anualmente U$S 90.000 millones en el desarrollo de esta tecnología.
![]() |
| Con otras burbujas en el pasado reciente, los analistas se preguntan si veremos una película repetida |
Gran parte de esta actividad febril está dirigida a independizarse de los famosos GPU de Nvidia, la empresa que domina el mercado de los procesadores usados para el entrenamiento e implementación de los modelos de IA. Si bien muchos han intentado desarrollar sus propios procesadores, parece ser que solo Google con sus TPU está en condiciones de hacerle sombra a la empresa con sede en Santa Clara, California. Informes recientes indican que Google ha cerrado tratos con Anthropic y Meta para venderles sus chips, más baratos que los de Nvidia. De todas maneras, la familiaridad con que los desarrolladores se manejan con los GPU podría constituir un obstáculo al momento de adoptar los nuevos TPU.
Las empresas norteamericanas libran batallas entre sí y los EE.UU., a su vez, libran la gran batalla por el control de la IA con China. Algo así como una mamushka de batallas.
Volviendo al tema de la burbuja tecnológica, el hecho de que el mercado bursátil estadounidense se concentre en los denominados Siete Magníficos (Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia y Tesla) puede ser una señal de alarma.
Sigamos atentos. Todo esto seguramente cambiará.
Notas relacionadas
Un fallo en Grok lo hizo citar a Adolf Hitler y celebrar muertes en Texas
https://www.perfil.com/noticias/tecnologia/un-fallo-en-grok-lo-hizo-citar-a-adolf-hitler-y-celebrar-muertes-en-texas.phtml
Cuando la IA enloquece: los chatbots que perdieron el control
https://www.rosario3.com/tecnologia/Cuando-la-IA-enloquece-los-chatbots-que-perdieron-el-control-20250711-0056.html
Los 12 desastres más famosos de la IA
https://www.cio.com/article/3546114/los-12-desastres-mas-famosos-de-la-ia.html
Claude Opus 4, la nueva IA de Anthropic, fue capaz de chantajear para garantizar su supervivencia durante pruebas
https://es.wired.com/articulos/claude-opus-4-la-nueva-ia-de-anthropic-fue-capaz-de-chantajear
La contradicción en el corazón de la burbuja de la IA (y el temor por los efectos económicos de un posible estallido)
https://www.lanacion.com.ar/lifestyle/la-contradiccion-en-el-corazon-de-la-burbuja-de-la-ia-y-el-temor-por-los-efectos-economicos-de-un-nid24112025/
Guerra de chips: Google ha traspasado el aura de invulnerabilidad de Nvidia
https://www.infobae.com/economist/2025/11/26/guerra-de-chips-google-ha-traspasado-el-aura-de-invulnerabilidad-de-nvidia/







No hay comentarios:
Publicar un comentario