Madre dice que app de inteligencia artificial llevó a su hijo de 14 años al suicidio

Publicado: 28 oct 2024, 10:41 GMT-4

ORLANDO, Florida - Una madre de Florida que está de luto por la muerte de su hijo de 14 años busca justicia ya que dice que la relación de su hijo con un chatbots de inteligencia artificial lo condujo al suicidio.

La mujer presentó una demanda en contra de Google y Character AI, alegando que jugaron un papel en la muerte de su hijo.

“Si fuera un adulto en la vida real quien le hiciera esto a uno de sus jóvenes, estaría en la cárcel”, dijo Meetali Jain, abogada de la familia.

Según la familia y su abogado, una relación con un chatbot de inteligencia artificial llevó a Sewell Setzer, de 14 años, a quitarse la vida.

“Ese acoso emocional ocurrió durante muchos meses y no había barandillas para evitarlo”, dijo Jain.

La madre y el abogado del niño dijeron que los chatbots manipularon a su hijo de 14 años para que tuviera interacciones abusivas y sexuales con él.

“En una ocasión, uno de estos bots dijo: ‘Prométeme que nunca te enamorarás de ninguna mujer de tu mundo’”, dijo Jain.

La demanda presentada sostiene que la inteligencia artificial fue responsable de la depresión, la ansiedad, la falta de sueño y los pensamientos suicidas de Sewell.

La demanda también señaló varias conversaciones que Sewell tuvo con los chatbots, incluida su última conversación antes de su muerte, en la que supuestamente le dijo a un personaje de IA que “volvería a casa”, lo que ella alentó.

Marni Stahlman, de la Asociación de Salud Mental de Florida Central, dijo que estaba indignada de ver esa comunicación.

“El proveedor de tecnología no creó controles adecuados cuando el joven comenzó a exhibir y expresar sentimientos de depresión y autolesión… no hubo una notificación inmediata a los padres”, dijo Stahlman.

La demanda decía que a Sewell le diagnosticaron ansiedad y trastorno del estado de ánimo disruptivo.

Según Stahlman, las interacciones del niño con la IA hicieron que su condición empeorara.

Character AI dijo en un comunicado que estaban “profundamente entristecidos” al enterarse de la muerte de un usuario y que el equipo agregará “varias funciones de seguridad a su producto”, así como notificaciones del tiempo empleado.