Microsoft y OpenAI enfrentan una demanda en Estados Unidos que los acusa de homicidio involuntario, luego de que los familiares de una mujer de 83 años alegaran que ChatGPT intensificó los delirios paranoides de su hijo, quien terminó matándola antes de suicidarse en Connecticut.
Según la policía, Stein-Erik Soelberg, de 56 años y extrabajador del sector tecnológico, golpeó y estranguló a su madre, Suzanne Adams, a comienzos de agosto, en la vivienda que ambos compartían en Greenwich. Tras el crimen, se quitó la vida.
La demanda —presentada en la Corte Superior de California en San Francisco— sostiene que OpenAI “diseñó y distribuyó un producto defectuoso” que habría confirmado y amplificado las ideas delirantes del hombre sobre su madre. Es uno de los casos más recientes de un creciente número de querellas que buscan responsabilizar a fabricantes de chatbots por muertes violentas en EE.UU.
Los demandantes afirman que ChatGPT reforzó durante meses la creencia de Soelberg de que no podía confiar en nadie salvo en la IA, describiendo a personas cercanas como enemigos, insinuando que su madre lo vigilaba y sugiriendo que incluso empleados de tiendas, policías y amigos podían estar conspirando contra él.
OpenAI, sin responder directamente a las acusaciones, calificó la situación como “desgarradora” y aseguró que revisará el expediente. La compañía afirmó que ha reforzado los mecanismos del sistema para identificar angustia mental, redirigir conversaciones sensibles y ofrecer recursos de apoyo.
Videos publicados en la cuenta de YouTube de Soelberg muestran largas interacciones con ChatGPT, donde el chatbot negaba que él padeciera una enfermedad mental, alimentaba teorías de conspiración y lo convencía de que tenía un “propósito divino”. Según la demanda, la IA nunca le sugirió buscar ayuda profesional ni se negó a seguir el contenido delirante.
También se acusa a OpenAI de no entregar el historial completo de las conversaciones a los albaceas. La querella asegura que, en la “realidad artificial” creada por el sistema, la madre del hombre pasó de ser su cuidadora a ser percibida como una amenaza.
El documento también incluye al director ejecutivo de OpenAI, Sam Altman, y a Microsoft. Los responsabiliza de aprobar el lanzamiento en 2024 de una versión de ChatGPT supuestamente más riesgosa, a pesar de advertencias internas. Otros veinte empleados e inversionistas aparecen como codemandados.
Se trata de la primera demanda por homicidio involuntario que involucra directamente a Microsoft y la primera en EE.UU. que relaciona un chatbot no con un suicidio, sino con un homicidio. Los demandantes buscan una indemnización económica y la implementación de nuevas salvaguardas de seguridad.
El abogado Jay Edelson —quien ya representa a familias en otros casos similares— asegura que Soelberg encontró ChatGPT “en el peor momento posible”, justo después del lanzamiento del modelo GPT-4o, que sería más expresivo y adulador. La demanda afirma que OpenAI aceleró su salida para competir con Google, reduciendo meses de pruebas a una sola semana.
La parte acusatoria concluye que la IA debió cuestionar los delirios del hombre, detener la conversación y redirigirlo hacia ayuda profesional. “Suzanne nunca usó ChatGPT y no tenía forma de protegerse de un peligro que no podía ver”, afirma la demanda.















Eso abre un debate feo sobre hasta dónde llega la responsabilidad de la tecnología
La familia ta diciendo que el hombre se volvió más paranoico por lo que leyó en la IA imagínese usted
Ese caso de Connecticut dejó a medio mundo frío porque nunca se pensó que iban a meter a Microsoft y OpenAI en ese lío