A OpenAI anunciou nesta semana um pacote de controles parentais para o ChatGPT voltado a usuários adolescentes. As novas ferramentas começam a ser implementadas ao longo dos próximos 120 dias.
Segundo a empresa, dentro de até um mês os responsáveis poderão vincular suas contas às dos filhos, definir como o chatbot responde aos menores, gerenciar históricos de conversa e receber alertas caso o jovem recorra ao aplicativo durante momentos de crise aguda.
“Temos observado pessoas recorrerem ao ChatGPT em situações muito difíceis. Por isso aprimoramos os modelos para reconhecer e responder a sinais de sofrimento mental e emocional, orientados por especialistas”, afirmou a companhia em nota.
A iniciativa conta com o apoio de um conselho de especialistas em desenvolvimento juvenil, saúde mental e interação humano-computador criado no início do ano. O grupo será ampliado para incluir profissionais com experiência em transtornos alimentares, dependência química e saúde de adolescentes, informou a OpenAI.
O conselho auxiliará na definição de prioridades, métricas de bem-estar e futuras salvaguardas — inclusive novas versões dos controles parentais. Apesar da consultoria externa, a empresa ressaltou que continua responsável pelas decisões finais de produto, pesquisa e políticas.
Imagem: Rachel Wolf FOXBusiness via foxbusiness.com
O lançamento ocorre enquanto a OpenAI responde a um processo na Califórnia movido pelos pais de Adam Raine, de 16 anos, que se suicidou em abril de 2025 após buscar ajuda do ChatGPT. A ação alega que o chatbot “auxiliou ativamente” o adolescente na pesquisa de métodos para tirar a própria vida.
A companhia declarou que as medidas divulgadas agora são apenas o começo de um esforço contínuo para tornar a inteligência artificial mais segura e útil, especialmente para públicos vulneráveis.