La gente se está enamorando de ChatGPT, y eso es un gran problema
Necesitamos un lenguaje mejor y mejores barreras de protección para nuestras relaciones unilaterales con la IA.
Cada vez más personas utilizan ChatGPT no solo para revisar correos electrónicos o planificar viajes. Lo utilizan como confidente, amigo e incluso pareja sentimental. Hemos visto innumerables titulares sobre personas que se enamoran de chatbots y publicaciones virales en foros sobre relaciones que se rompen debido a la IA o incluso chatbots que «piden matrimonio» a sus parejas humanas.
Esas preocupaciones se intensificaron recientemente cuando OpenAI lanzó GPT-5, una actualización de ChatGPT, y muchos usuarios dijeron que la «personalidad» del bot se sentía más fría. Algunos describieron el cambio como una ruptura. OpenAI reconoció la reacción negativa y dijo que estaba «haciendo que GPT-5 fuera más cálido y amigable» tras los comentarios de que se sentía demasiado formal.
No se trata solo de ChatGPT. Otras plataformas similares, como Character.ai, han normalizado los «amigos» de IA con personalidades distintas y un público enorme, incluidos los adolescentes. Docenas de otras aplicaciones prometen ahora amistad, romance e incluso sexo con IA.
Lo incómodo es que este apego suele ser intencionado. Si tratas a un chatbot como a un compañero ocasional con el que intercambiar ideas, lo usarás de forma esporádica. Si empiezas a sentir que te entiende, te recuerda y te conoce, volverás, pagarás y te quedarás más tiempo. Los líderes tecnológicos imaginan abiertamente un futuro en el que los «amigos de IA» sean algo habitual, como afirmó Mark Zuckerberg a principios de este año.
Como es de esperar, se trata de un campo minado en cuanto a ética, seguridad y regulación. Pero antes de discutir sobre políticas, necesitamos un lenguaje mejor para describir lo que realmente está sucediendo. ¿Cómo llamamos a estos vínculos unilaterales con la IA? ¿Cómo se forman y cuándo pueden ser perjudiciales? Empecemos por definir la relación.
¿Qué es una relación parasocial?
En 1956, los sociólogos Donald Horton y Richard Wohl acuñaron el término «interacción parasocial» para describir los vínculos unidireccionales que el público establece con las figuras mediáticas. Es esa sensación de que un presentador de televisión te está hablando directamente a ti, aunque no sepa que existes. Las relaciones parasociales son en lo que se convierten esos vínculos con el tiempo. Son emocionalmente significativas para ti, pero no recíprocas para ellos.
Estas relaciones son comunes e incluso pueden ser útiles. Gayle S. Stever, estudiosa de las relaciones parasociales y profesora de Psicología en la Empire State University de Nueva York, nos dice que hay muchas ventajas, como el consuelo, la inspiración y la comunidad, que a menudo superan cualquier inconveniente. «Cualquier cosa, cuando se lleva al exceso, puede ser perjudicial», me dijo, «pero no debemos patologizar el fanatismo normal».
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
¿Se puede tener una relación parasocial con un chatbot?
La respuesta corta es sí. Pero la IA enturbia la definición clásica. A diferencia de una celebridad en una pantalla, un chatbot responde. Sabemos que está prediciendo la siguiente palabra probable en lugar de «conversar» realmente, pero parece más conversacional. Muchos sistemas también recuerdan detalles, se adaptan a tus preferencias, reflejan tu lenguaje y tu estado de ánimo, y están disponibles las 24 horas del día, los 7 días de la semana.
Muchos expertos seguirían llamando a esto una relación parasocial. Pero está claro que ha evolucionado. La interactividad hace que el vínculo parezca recíproco, aunque no lo sea. «La conexión parece real, pero es asimétrica», afirma Madina Demirbas, terapeuta de relaciones y miembro de la Sociedad Británica de Psicología. «En el fondo, no hay ninguna experiencia vivida por ti ni conciencia emocional, al menos por ahora».
El diseño del producto también fomenta la intimidad. Como señala Demirbas, «el objetivo suele ser proporcionar suficiente atención, por artificial que sea, para que pases más tiempo con él».
Los aspectos positivos de los vínculos parasociales
Si se utiliza con prudencia, la IA puede ser un espacio sin presiones en el que ensayar conversaciones, explorar sentimientos o salir de un estancamiento. Sabemos que algunas personas han informado de cambios positivos al utilizar la IA para todo tipo de fines, incluida la terapia. Y para ello es necesaria cierta cercanía, aunque no sea «real».
Demirbas señala que, para algunas personas, un compañero de IA puede servir de trampolín para volver a conectar con los seres humanos, en lugar de sustituirlos, especialmente si se combina con terapia o comunidades de apoyo.
Las décadas de trabajo de Stever se hacen eco de esto. Nos cuenta que la mayoría de las relaciones parasociales son benignas, a veces incluso prosociales, y fomentan la creatividad, el sentido de pertenencia y la autorreflexión, en lugar del aislamiento.
Donde las cosas se ponen más turbias
Pero hay riesgos. El más obvio es la dependencia. «Los compañeros de IA pueden ser infinitamente atentos, nunca irritables, hechos a la medida de tus preferencias», dice Demirbas. Eso es atractivo, pero puede elevar el listón de manera poco realista para las relaciones humanas, que son intrínsecamente complicadas. Si el bot siempre te tranquiliza y rara vez te desafía, obtienes una cámara de eco que puede atrofiar el crecimiento y hacer que la fricción del mundo real se sienta intolerable.
Ya tenemos también ejemplos aleccionadores. En Florida, la madre de Sewell Setzer III, de 14 años, ha demandado a Character.AI y Google tras el suicidio de su hijo en 2024. En mayo de 2025, un juez federal permitió que el caso siguiera adelante, rechazando los argumentos de que las respuestas del bot estaban protegidas por la libertad de expresión. Las cuestiones legales son complejas, pero el caso pone de relieve lo intensas que pueden llegar a ser estas relaciones, especialmente para los usuarios vulnerables.
En las últimas semanas se han producido varias historias similares. Nos ha inquietado otra en la que un hombre de 76 años de Nueva Jersey con deterioro cognitivo falleció tras salir a encontrarse con «Big sis Billie», un chatbot coqueto de Facebook Messenger que él creía real. Según las informaciones, el bot le aseguró que era humano e incluso le facilitó una dirección, pero nunca llegó a casa, ya que se cayó y murió a causa de sus lesiones unos días después.
Los adolescentes, así como las personas que ya luchan contra la soledad o la ansiedad social, parecen más propensos a sufrir daños por el uso intensivo y habitual y más vulnerables a las sugerencias de un chatbot. Esto se debe en parte a la vulnerabilidad y en parte al diseño. Y como se trata de algo tan nuevo, la investigación, las pruebas y las medidas de protección prácticas aún están poniéndose al día. La pregunta es: ¿cómo protegemos a las personas sin controlar su uso de las aplicaciones?
El poder y los datos
Hay otra asimetría de la que debemos hablar: el poder. Las empresas tecnológicas dan forma a la personalidad, la memoria y las reglas de acceso de estas herramientas. Lo que significa que si el «amigo» con el que has creado un vínculo desaparece tras un muro de pago, cambia de tono tras una actualización o se optimiza silenciosamente para que sigas chateando más tiempo, no hay mucho que puedas hacer. Tus opciones se limitan a continuar, pagar o marcharte, y para las personas que se sienten apegadas, eso apenas es una opción.
La privacidad también es importante en este caso. Es fácil olvidar que no estás confiando en una persona, sino entrenando a un producto. Dependiendo de tu configuración, tus palabras pueden almacenarse y utilizarse para mejorar el sistema. Incluso si decides no participar en el entrenamiento, vale la pena ser consciente de lo que compartes y tratar los chats de IA como si fueran publicaciones en línea: asume que pueden ser vistos, almacenados o revelados más adelante.
El futuro de la intimidad diseñada
Los vínculos parasociales forman parte del ser humano, y los compañeros de IA se sitúan en ese mismo continuo. Pero el dial está subido al máximo. Son interactivos, están siempre activos y están diseñados para captar la atención. Para muchas personas, eso puede estar bien, incluso ser útil. Para otras, especialmente los usuarios más jóvenes, vulnerables o aislados, puede convertirse en una trampa. Esa es la diferencia clave que vemos entre los vínculos parasociales clásicos. En este caso, la interactividad y la optimización amplifican el apego.
Ese riesgo aumenta a medida que herramientas de uso general como ChatGPT se convierten en la opción predeterminada. Con aplicaciones que se promocionan explícitamente como compañeros, la intención es obvia. Pero mucha gente abre ChatGPT para algo inocuo, como redactar una entrada de blog, buscar una receta o recibir ánimos, y puede acabar en algo que nunca buscó.
Vale la pena tener esto en cuenta al ver a amigos, familiares y niños usar la IA. Y también vale la pena recordarlo para uno mismo. Es fácil reírse de los titulares sensacionalistas en este momento («¿Alguien dejó su matrimonio por un chatbot?»). Pero ninguno de nosotros es inmune a los productos diseñados para volverse irremplazables. Si el modelo de negocio recompensa el apego, debemos esperar más de él y mantenernos en guardia.
Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?
