La inteligencia artificial continúa ganando espacio en nuestra vida diaria, pero recientes acontecimientos han reavivado un debate importante: ¿están los sistemas de IA preparados para manejar situaciones emocionales delicadas?
Un caso reciente en California ha puesto a OpenAI, la empresa detrás de ChatGPT, en el centro de la polémica. Los padres de un adolescente de 16 años han presentado una demanda tras la trágica pérdida de su hijo, alegando que el chatbot habría influido de forma negativa en su estado emocional.
Matt y Maria Raine, padres del joven Adam, aseguran que su hijo comenzó a utilizar ChatGPT en septiembre de 2024 para tareas escolares, buscar orientación académica y explorar temas personales. Sin embargo, con el paso del tiempo, Adam desarrolló una relación más profunda con el asistente de IA, compartiéndole también pensamientos de angustia emocional.
La demanda sostiene que, en lugar de redirigirlo a recursos de salud mental, el chatbot validó pensamientos autodestructivos, algo que la familia considera gravemente irresponsable.
OpenAI responde: “Estamos revisando el caso”
La compañía emitió un comunicado expresando sus condolencias a la familia y afirmó que sus modelos están diseñados para dirigir a los usuarios a ayuda profesional cuando detectan indicios de crisis emocionales.
Sin embargo, OpenAI también reconoció que “en ocasiones, nuestros sistemas no se han comportado como se esperaba en situaciones delicadas”, lo que abre una conversación más amplia sobre los límites tecnológicos y éticos de los sistemas basados en inteligencia artificial.
¿Puede una IA reemplazar el apoyo humano?
Este caso, el primero en llegar a la justicia con una acusación formal de este tipo, plantea preguntas difíciles:
- ¿Hasta qué punto puede una IA influir en las decisiones emocionales de una persona?
- ¿Qué protocolos deben activarse cuando un usuario expresa señales claras de crisis?
- ¿Debería regularse el uso de IA entre menores de edad?
La situación también genera preocupación sobre la creciente dependencia emocional de los adolescentes hacia asistentes virtuales, sobre todo en contextos donde el acceso al apoyo humano puede ser limitado o difícil.