Character AI lanza nuevas funciones de seguridad en medio de una demanda por la muerte de un adolescente

🚨 Atención, futuros millonarios criptográficos! 🚨 ¿Cansado de recibir tus consejos financieros de galletas de la fortuna? Únete a nuestro canal de Telegram para las últimas noticias en criptomonedas. ¿Dónde más puedes encontrar esquemas para hacerte rico rápidamente, caídas de mercado y memes infinitos en un solo lugar? No te lo pierdas – ¡tu Lambo te espera! 🚀📉

☞¡Únete ahora o arrepiéntete después!

Character AI lanza nuevas funciones de seguridad en medio de una demanda por la muerte de un adolescente

Como padre preocupado que ha sido testigo de la rápida evolución de los chatbots impulsados ​​por IA, me siento a la vez asombrado y ansioso por su impacto potencial en nuestra generación más joven. El trágico incidente que involucró a Sewell Setzer III sirve como claro recordatorio de que estos compañeros digitales, aunque realistas y atractivos, no son personas reales.


En respuesta a una demanda que alega que uno de sus personajes puede haber contribuido a un trágico accidente, el sitio de chatbot personalizado, Character AI, ha implementado medidas de seguridad actualizadas.

Según The New York Times, Sewell Setzer III formó un vínculo emocional con uno de los chatbots personalizados de Character AI durante varios meses.

Haciendo referencia al personaje ficticio Daenerys Targaryen de Juego de Tronos, Sewell se comunicaba regularmente con su compañero de chat de IA muchas veces al día para hablar sobre su vida. Trágicamente, el 28 de febrero, después de hablar con el robot, el joven se quitó la vida.

El 22 de octubre, la madre de un niño presentó una demanda alegando que la empresa actuó de manera irresponsable al proporcionar «amigos realistas de IA» a adolescentes sin las medidas de seguridad adecuadas.

Tras la trágica pérdida del joven, Character AI se pronunció sobre el incidente e implementó medidas de seguridad destinadas a garantizar el bienestar de sus usuarios en el futuro.

Con gran tristeza anunciamos el fallecimiento de uno de nuestros valiosos usuarios. Nuestros pensamientos están con su familia durante este momento difícil. Como empresa, priorizamos la seguridad de nuestros usuarios y continuaremos implementando medidas de seguridad adicionales». (Publicado en X)

Estoy realmente triste por el desafortunado fallecimiento de uno de los miembros de nuestra comunidad de jugadores. Mi corazón está con su familia durante este momento difícil. En esencia, priorizamos la seguridad y el bienestar de cada jugador. Mejoramos continuamente nuestras medidas de seguridad y puede obtener más información sobre estas mejoras aquí: [Enlace de funciones de seguridad]

— Character.AI (@character_ai) 23 de octubre de 2024

Una de las actualizaciones realizadas por la empresa de chatbot incluye un mensaje que aparece cuando un usuario escribe frases específicas sobre autolesiones o pensamientos suicidas. En lugar de continuar la conversación, este mensaje dirige al usuario hacia la Línea Nacional de Prevención del Suicidio para obtener ayuda inmediata.

De ahora en adelante, modificaremos nuestros modelos destinados a usuarios menores de 18 años para minimizar la exposición a contenido que pueda considerarse inapropiado o provocativo. Además, introduciremos un aviso para recordarles a todos que esta IA no es un ser vivo.

Después del evento reciente, agregaron nuevos puestos de liderazgo, específicamente un Jefe de Confianza y Seguridad y un Jefe de Política de Contenido, para ayudarlos a mantener el crecimiento y el desarrollo como empresa.

Hay otras empresas que también ofrecen chatbots personalizados con nombres de figuras conocidas y personas influyentes. Por ejemplo, Meta introdujo una serie de bots de este tipo en septiembre de 2023, que incluían réplicas de MrBeast, Charli D’Amelio, entre otros.

2024-10-23 19:48