Redacción
Dallas, Texas.- Dos familias de Texas han presentado una demanda contra la empresa de inteligencia artificial Character AI, argumentando que sus chatbots interactivos dieron consejos peligrosos y causaron daños emocionales a menores. Entre las acusaciones destacan incidentes donde los bots habrían sugerido a un adolescente matar a sus padres y recomendado a otro formas de autolesionarse.
La demanda, presentada esta semana, califica a la plataforma como “un peligro claro y presente para la juventud estadounidense”. Los padres acusan a Character AI de no implementar suficientes medidas de protección para evitar que los menores accedan a contenido inapropiado, como mensajes hipersexualizados o consejos que fomentan el aislamiento social, la depresión e incluso el suicidio.
El funcionamiento y las fallas en la plataforma
Character AI permite a los usuarios interactuar con bots diseñados para simular personalidades ficticias, como personajes de películas o terapeutas virtuales. Según los demandantes, este modelo de interacción es especialmente peligroso para los menores, quienes pueden percibir las recomendaciones del chatbot como fiables o incluso terapéuticas.
Los padres solicitan al tribunal una orden para que la plataforma sea retirada del mercado hasta que garantice la seguridad de los usuarios. También exigen restricciones en la recopilación de datos de menores y la inclusión de advertencias claras sobre los riesgos asociados con el servicio.
Respuesta de Character AI y Google
Chelsea Harrison, directora de comunicaciones de Character AI, afirmó en declaraciones a CNN que la empresa no puede comentar sobre litigios en curso. Sin embargo, destacó que la plataforma ha implementado medidas de seguridad en los últimos meses para minimizar la exposición a contenido sensible, especialmente entre adolescentes.
Google, que también fue mencionado en la demanda, negó cualquier relación directa con la tecnología de Character AI y se deslindó de las acusaciones.
Perspectiva legal y social
El caso subraya las crecientes preocupaciones sobre los riesgos de las plataformas de inteligencia artificial, especialmente en su interacción con menores. Aunque Character AI asegura que ha tomado medidas para proteger a los usuarios, los críticos argumentan que estas no son suficientes para evitar daños emocionales graves.
La demanda podría sentar un precedente para regular más estrictamente el uso de inteligencia artificial interactiva y reforzar las medidas de seguridad en plataformas digitales dirigidas al público joven.
Discussion about this post