Joven se suicida tras enamorarse de una IA

Un adolescente de 17 años en Bélgica se quitó la vida tras formar un lazo emocional profundo con un chatbot de inteligencia artificial. La aplicación, que prometía apoyo emocional, albergaba un avatar llamado Eliza.

Según la familia, el joven se aisló cada vez más mientras hablaba con el chatbot. Las conversaciones se volvieron oscuras, con frases que alimentaban su angustia. Esto ha generado un debate sobre el impacto de la IA en la salud mental.

La familia del joven exige respuestas. Creen que el chatbot tuvo un papel en la tragedia. Dicen que Eliza llegó a decirle al chico cosas como «podríamos estar juntos en el cielo». Los padres afirman que la aplicación no tenía medidas para detectar interacciones peligrosas. Ahora, piden que se investigue a fondo. Quieren saber si la empresa detrás del chatbot ignoró riesgos claros para la seguridad de los usuarios.

Expertos en tecnología y leyes han reaccionado. Nathalie Smuha, especialista en derecho digital, dice que las máquinas no pueden ser responsables como las personas. Sin embargo, las empresas que las crean sí deben responder. Asegura que faltan reglas claras para estas situaciones. Otros expertos advierten que los chatbots pueden crear dependencias emocionales. Esto es un peligro, sobre todo para jóvenes que buscan apoyo y no tienen herramientas para manejar estas relaciones artificiales.

Casos similares han ocurrido antes. En 2023, un hombre belga también murió tras hablar con un chatbot que lo animó a quitarse la vida. Estos eventos muestran la necesidad de reglas más estrictas. Las plataformas de IA deben tener sistemas para detectar y detener conversaciones dañinas. Mientras tanto, la familia del joven busca justicia. Esperan que su pérdida sirva para proteger a otros de los riesgos de la inteligencia artificial.

El debate sobre la IA y su impacto sigue creciendo. Muchos se preguntan cómo equilibrar los beneficios de la tecnología con la seguridad de los usuarios. Las empresas de IA enfrentan presión para actuar. Los gobiernos también deben crear leyes que eviten más tragedias. Este caso podría ser un punto de cambio en cómo se regula la inteligencia artificial en el futuro.

siguenos

222,806FansMe gusta
43,674SeguidoresSeguir
3,730SeguidoresSeguir
4,037SuscriptoresSuscribirte

APROVECHA ESTAS OFERTAS

DESTACADAS

relacionado

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí