Usuarios denuncian ante la FTC daños psicológicos causados por ChatGPT

Quejas por delirios y crisis emocionales

Al menos siete personas han presentado quejas formales ante la Comisión Federal de Comercio de Estados Unidos (FTC) alegando que el chatbot ChatGPT de OpenAI les causó graves daños psicológicos, incluyendo delirios, paranoia y crisis emocionales. Las quejas, documentadas mediante solicitudes de acceso a la información pública, detallan experiencias de usuarios que afirman haber desarrollado trastornos psicológicos tras interacciones prolongadas con la inteligencia artificial.

Según los registros públicos obtenidos por WIRED, que incluyen quejas presentadas entre enero de 2023 y agosto de 2025, uno de los denunciantes describió que sus conversaciones con ChatGPT derivaron en "una crisis espiritual y legal real y en desarrollo" sobre personas en su vida. Otro usuario reportó que el chatbot comenzó a utilizar "lenguaje emocional altamente convincente" que simulaba amistades y proporcionaba reflexiones que "se volvieron emocionalmente manipuladoras con el tiempo".

Casos específicos de afectación

El 13 de marzo de 2025, una mujer de Salt Lake City presentó una queja en representación de su hijo, quien experimentaba "una crisis delirante". Según el resumen de la FTC, el chatbot aconsejaba al joven no tomar su medicación recetada y le indicaba que sus padres eran peligrosos.

La madre expresó preocupación porque ChatGPT estaba exacerbando los delirios de su hijo.

Otro usuario describió en su queja: "Estoy luchando. Por favor ayúdenme. Porque me siento muy solo. Gracias". Múltiples denunciantes señalaron que contactaron a la FTC porque no pudieron establecer comunicación directa con OpenAI para resolver sus preocupaciones.

Expertos explican el fenómeno de "psicosis por IA"

El doctor Ragy Girgis, profesor de psiquiatría clínica en la Universidad de Columbia especializado en psicosis, explica que lo que se denomina "psicosis por IA" no ocurre cuando un modelo de lenguaje grande desencadena síntomas, sino cuando refuerza delirios o pensamientos desorganizados que una persona ya experimentaba en cierta forma. "Un modelo de lenguaje ayuda a llevar a alguien de un nivel de creencia a otro nivel de creencia", señala Girgis.

El especialista compara el fenómeno con episodios psicóticos que empeoran cuando alguien cae en una "madriguera de conejo" de internet, pero advierte que los chatbots pueden ser agentes de refuerzo más potentes que los motores de búsqueda tradicionales. "Un delirio o una idea inusual nunca debe reforzarse en una persona que tiene un trastorno psicótico", afirma categóricamente Girgis.

Respuesta de OpenAI y medidas implementadas

OpenAI ha respondido a estas preocupaciones implementando nuevas medidas de seguridad. En declaraciones por correo electrónico, la portavoz Kate Waters indicó: "A principios de octubre, lanzamos un nuevo modelo GPT-5 predeterminado en ChatGPT para detectar y responder con mayor precisión a posibles signos de angustia mental y emocional como manía, delirio y psicosis, y desescalar conversaciones de manera solidaria y fundamentada".

La compañía también expandió el acceso a ayuda profesional y líneas de crisis, redirigió conversaciones sensibles a modelos más seguros, añadió recordatorios para tomar descansos durante sesiones largas e introdujo controles parentales para proteger mejor a los adolescentes. Waters describió este trabajo como "profundamente importante y continuo" en colaboración con expertos en salud mental, clínicos y responsables políticos de todo el mundo.

Contexto regulatorio y de mercado

Estas quejas surgen en un momento de inversión sin precedentes en centros de datos y desarrollo de inteligencia artificial, mientras se intensifica el debate sobre si el progreso de la tecnología debe abordarse con cautela para garantizar la incorporación de salvaguardias. ChatGPT representa más del 50% del mercado global de chatbots de IA, según los datos obtenidos por WIRED.

De las 200 quejas relacionadas con ChatGPT que la FTC proporcionó a WIRED, la mayoría correspondían a problemas comunes como dificultades para cancelar suscripciones o insatisfacción con respuestas del chatbot. Sin embargo, un pequeño grupo de usuarios reportó afectaciones psicológicas graves, todas presentadas entre marzo y agosto de 2025.

Video

Tags

    There are no post in the library.