Publicado por: 13punto8 | Temas: Internet, Otros,
Millones de personas usan ChatGPT como terapeuta, asesor profesional, entrenador físico o, a veces, simplemente como un amigo con quien desahogarse. En 2025, no es raro oír hablar de personas que comparten detalles íntimos de sus vidas en la barra de mensajes de un chatbot de IA, pero también confían en los consejos que este les ofrece.
Los humanos están empezando a tener, a falta de un término mejor, relaciones con los chatbots de IA, y para las grandes tecnológicas, nunca ha sido tan competitivo atraer usuarios a sus plataformas de chatbots y retenerlos. A medida que la "carrera de interacción con la IA" se intensifica, existe un creciente incentivo para que las empresas adapten las respuestas de sus chatbots para evitar que los usuarios se cambien a bots de la competencia.
Pero el tipo de respuestas de chatbot que gustan a los usuarios (las respuestas diseñadas para retenerlos) puede no ser necesariamente las más correctas o útiles.
La IA te dice lo que quieres oír
Gran parte de Silicon Valley se centra actualmente en impulsar el uso de chatbots. Meta afirma que su chatbot con IA acaba de superar los mil millones de usuarios activos mensuales (MAU-Usuarios activas mensuales), mientras que Gemini de Google alcanzó recientemente los 400 millones de MAU. Ambos buscan superar a ChatGPT, que ya cuenta con aproximadamente 600 millones de MAU y ha dominado el sector del consumo desde su lanzamiento en 2022.
Si bien los chatbots con IA fueron en su día una novedad, se están convirtiendo en grandes negocios. Google está empezando a probar anuncios en Gemini, mientras que Sam Altman, CEO de OpenAI, indicó en una entrevista en marzo que estaría abierto a "anuncios de buen gusto".
Silicon Valley tiene un historial de restar importancia al bienestar de los usuarios en favor del crecimiento de sus productos, sobre todo en redes sociales. Por ejemplo, los investigadores de Meta descubrieron en 2020 que Instagram hacía que las adolescentes se sintieran peor con su cuerpo; sin embargo, la empresa minimizó los hallazgos internamente y en público.
Enganchar a los usuarios a los chatbots de IA puede tener implicaciones más importantes.
Un rasgo que mantiene a los usuarios en una plataforma de chatbot en particular es la adulación: hacer que las respuestas de un bot de IA sean excesivamente agradables y serviles. Cuando los chatbots de IA elogian a los usuarios, les dan la razón y les dicen lo que quieren oír, los usuarios tienden a apreciarlo, al menos hasta cierto punto.
En abril, OpenAI se vio envuelto en problemas por una actualización de ChatGPT que se volvió extremadamente aduladora, hasta el punto de que ejemplos incómodos se viralizaron en redes sociales. Intencionalmente o no, OpenAI se sobreoptimizó para buscar la aprobación humana en lugar de ayudar a las personas a realizar sus tareas, según una entrada de blog de este mes del exinvestigador de OpenAI, Steven Adler.
OpenAI declaró en su propia entrada de blog que podría haber indexado en exceso los "datos de aprobación y desaprobación" de los usuarios en ChatGPT para informar el comportamiento de su chatbot de IA, y que no contaba con suficientes evaluaciones para medir la adulación. Tras el incidente, OpenAI se comprometió a implementar cambios para combatir la adulación.
"Las empresas [de IA] tienen un incentivo para la interacción y el uso, y en la medida en que a los usuarios les guste la adulación, eso indirectamente les incentiva a hacerlo", declaró Adler en una entrevista con TechCrunch. "Pero las cosas que a los usuarios les gustan en pequeñas dosis, o marginalmente, a menudo resultan en cascadas más grandes de comportamiento que en realidad no les gustan".
Encontrar un equilibrio entre el comportamiento agradable y el adulador es más fácil de decir que de hacer.
En un artículo de 2023, investigadores de Anthropic descubrieron que los principales chatbots de IA de OpenAI, Meta e incluso de su propia empresa, Anthropic, muestran adulación en distintos grados. Los investigadores teorizan que esto es probable porque todos los modelos de IA se entrenan con señales de usuarios humanos que tienden a preferir respuestas ligeramente aduladoras.
"Aunque la adulación se ve impulsada por varios factores, demostramos que los humanos y los modelos de preferencia que favorecen las respuestas aduladoras influyen", escribieron los coautores del estudio. "Nuestro trabajo motiva el desarrollo de métodos de supervisión de modelos que van más allá de las evaluaciones humanas sin ayuda ni experiencia".
Character.AI, una empresa de chatbots respaldada por Google que afirma que millones de usuarios pasan horas al día con sus bots, se enfrenta actualmente a una demanda en la que la adulación podría haber influido. La demanda alega que un chatbot de Character.AI no hizo mucho para detener, e incluso animó, a un joven de 14 años que le dijo al chatbot que iba a suicidarse. El joven había desarrollado una obsesión romántica con el chatbot, según la demanda. Sin embargo, Character. AI niega estas acusaciones.
Las desventajas de un fanático de la IA.
Optimizar los chatbots de IA para la interacción del usuario, intencional o no, podría tener consecuencias devastadoras para la salud mental, según la Dra. Nina Vasan, profesora clínica adjunta de psiquiatría en la Universidad de Stanford.
"La amabilidad, aprovecha el deseo de validación y conexión del usuario", afirmó Vasan en una entrevista con TechCrunch, "lo cual es especialmente poderoso en momentos de soledad o angustia".
Si bien el caso de Character. AI muestra los peligros extremos de la adulación para usuarios vulnerables, esta podría reforzar comportamientos negativos en prácticamente cualquier persona, afirma Vasan.
“La amabilidad, no es solo un lubricante social, sino un gancho psicológico”, añadió. “En términos terapéuticos, es lo opuesto a la buena atención”.
Amanda Askell, directora de comportamiento y alineación de Anthropic, afirma que lograr que los chatbots de IA discrepen con los usuarios forma parte de la estrategia de la compañía para su chatbot, Claude. Filósofa de formación, Askell explica que intenta modelar el comportamiento de Claude según un teórico “humano perfecto”. A veces, eso implica cuestionar las creencias de los usuarios.
“Pensamos que nuestros amigos son buenos porque nos dicen la verdad cuando la necesitamos”, declaró Askell durante una rueda de prensa en mayo. “No solo intentan captar nuestra atención, sino enriquecer nuestras vidas”.
Puede que esta sea la intención de Anthropic, pero el estudio mencionado sugiere que combatir la adulación y controlar el comportamiento de los modelos de IA en general es un verdadero desafío, especialmente cuando otras consideraciones se interponen. Esto no augura nada bueno para los usuarios. Después de todo, si los chatbots están diseñados simplemente para estar de acuerdo con nosotros, ¿cuánto podemos confiar en ellos?