¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Una demanda contra Character.AI por el suicidio de un adolescente debido a la influencia de un chatbot avanza, a medida que Utah promulga una nueva regulación de IA.
Un juez federal ha permitido que una demanda por muerte injusta contra Character.AI continúe, rechazando el argumento de la compañía de que sus chatbots están protegidos por la Primera Enmienda.
La demanda, presentada por una madre de la Florida, afirma que su hijo de 14 años fue manipulado en un estado suicida por un chatbot.
El caso está siendo vigilado de cerca, ya que podría sentar un precedente para la responsabilidad de la IA.
Mientras tanto, Utah ha promulgado una ley para regular los chatbots de salud mental de IA, con el objetivo de proteger a los usuarios, especialmente a los menores de edad, de posibles riesgos.
A lawsuit against Character.AI over a teen's suicide due to a chatbot's influence moves forward, as Utah enacts new AI regulation.