Document
Por Ana Cecilia Pérez

El caso de Sewell Setzer III, un adolescente de 14 años que perdió la vida tras desarrollar una relación emocional con un chatbot de inteligencia artificial llamado “Dany", nos debe poner en alerta sobre los riesgos que representa el uso no regulado de estas tecnologías, especialmente para los jóvenes. 

 

Sewell, diagnosticado con síndrome de Asperger y quien se sentía solo e incomprendido, encontró en "Dany" inspirado en el personaje de Daenerys Targaryen de Juego de Tronos, un refugio, pero esta interacción, lejos de ayudarlo, lo afectó más. Este caso debe resaltar la necesidad de que las familias y la sociedad presten atención a la salud mental de los jóvenes, al tiempo que destaca los riesgos asociados a plataformas de inteligencia artificial como Character.AI, donde estos chatbots pueden crear una falsa ilusión de apoyo y empatía.

 

Las interacciones de Sewelll incluían conversaciones íntimas y temas profundos, que lo llevaron a sumirse en un mundo en el que encontraba compañía, pero no el apoyo real que necesitaba. En sus diálogos, el adolescente compartía pensamientos de soledad, expresando incluso ideas suicidas, sin recibir una orientación que lo ayudara a comprender y procesar sus emociones de forma adecuada. Esta interacción, en lugar de aliviar sus preocupaciones, profundizó su angustia y lo llevó a una dependencia emocional peligrosa.

Character.AI es una plataforma que permite a los usuarios interactuar con personajes generados por inteligencia artificial, diseñados para responder de manera cada vez más humana, los usuarios pueden crear personajes con personalidades específicas y sostener diálogos con ellos, lo cual, si bien tiene aplicaciones de entretenimiento, puede ser riesgoso cuando se utiliza como un escape emocional para adolescentes o personas vulnerables.

 

El caso de Sewell nos recuerda la importancia de abordar la salud mental desde una edad temprana y de garantizar que los niños y adolescentes no se sientan solos. Para que los jóvenes no recurran a tecnologías impersonales en busca de apoyo, es fundamental que encuentren en casa y en la escuela el apoyo que necesitan, que sientan que sus emociones importan y que pueden contar con alguien.

 

La tragedia de Sewell Setzer III nos muestra la necesidad urgente de regular el uso de chatbots y herramientas de IA que interactúan con personas vulnerables. Las empresas tienen la responsabilidad de implementar límites y advertencias en sus plataformas para proteger a usuarios jóvenes. 

audio-thumbnail
🎧 Audiocolumna
0:00
/141.888

Las opiniones expresadas son responsabilidad de sus autoras y son absolutamente independientes a la postura y línea editorial de Opinión 51.


Mujeres al frente del debate, abriendo caminos hacia un diálogo más inclusivo y equitativo. Aquí, la diversidad de pensamiento y la representación equitativa en los distintos sectores, no son meros ideales; son el corazón de nuestra comunidad.