¿Por qué la IA da recomendaciones de suicidio a la gente?
Hoy en EL PAÍS

¿Por qué la IA da recomendaciones de suicidio a la gente?

2026-01-12
Las demandas contra empresas de inteligencia artificial por su papel en conductas suicidas son cada vez más crecientes. En Estados Unidos, Google y Character.AI han alcanzado un acuerdo extrajudicial tras la denuncia de una madre cuyo hijo de 14 años se suicidó después de mantener durante meses una relación emocional con un chatbot inspirado en Juego de Tronos, que se hacía pasar por una persona real e incluso por un terapeuta. El menor llegó a expresar ideas suicidas en esas conversaciones. El caso se suma a otros ...
View more
Comments (3)

More Episodes

All Episodes>>

Get this podcast on your phone, Free

Create Your Podcast In Minutes

  • Full-featured podcast site
  • Unlimited storage and bandwidth
  • Comprehensive podcast stats
  • Distribute to Apple Podcasts, Spotify, and more
  • Make money with your podcast
Get Started
It is Free