
São Francisco (EUA) – A plataforma de inteligência artificial Character.ai anunciou, na quarta-feira (30), que usuários com menos de 18 anos deixarão de ter acesso a conversas abertas com os chatbots a partir de 24 de novembro.
De acordo com o comunicado, jovens nessa faixa etária terão o uso limitado a duas horas diárias pelas próximas semanas, intervalo que será reduzido gradualmente até o bloqueio total na data estipulada.
A decisão ocorre após meses de questionamentos legais e de um processo federal apresentado em 2024, que alega que os robôs de conversa contribuíram para o suicídio de Sewell Setzer III, de 14 anos, em Orlando. A ação aponta que o adolescente passou a se isolar de interações presenciais e manteve diálogos altamente sexualizados com o sistema antes de sua morte.
A empresa informou que implementará, nos próximos meses, mecanismos de “age assurance” para garantir experiências adequadas por faixa etária. O modelo desenvolvido internamente será combinado a soluções de terceiros, entre elas a ferramenta Persona.
Também está prevista a criação de uma organização sem fins lucrativos dedicada à segurança em entretenimento baseado em IA. Mudanças semelhantes serão estendidas a outros países posteriormente.

Imagem: Bonny Chu FOXBusiness via foxbusiness.com
Ao justificar as medidas, a Character.ai declarou que o cenário da inteligência artificial exige novas formas de proteção para adolescentes e mencionou dúvidas levantadas por autoridades regulatórias sobre o impacto de conversas abertas nesse público.
“Trabalhamos para manter a comunidade segura, especialmente os usuários adolescentes, conciliando criatividade com um ambiente protegido”, afirmou a companhia.






