Quem: Sam Altman, diretor-executivo da OpenAI.
O quê: O executivo advertiu que informações sensíveis compartilhadas com o ChatGPT não contam com proteção legal de sigilo e podem ser requisitadas nos tribunais.
Quando e onde: A declaração foi feita na última semana, durante entrevista ao podcast “This Past Weekend”, apresentado por Theo Von.
Como: Segundo Altman, diferentemente de conversas com médicos, advogados ou terapeutas — que possuem privilégio legal — diálogos mantidos com o chatbot podem ser solicitados por meio de ordem judicial. “Se você falar sobre assuntos muito sensíveis e houver um processo, poderemos ser obrigados a entregar essas informações”, afirmou.
Por quê: O CEO vê a lacuna regulatória como “um grande problema”, sobretudo em um momento em que ferramentas de IA vêm sendo usadas para suporte psicológico, aconselhamento médico e orientação financeira. Ele defendeu a criação de um arcabouço jurídico que assegure a mesma proteção de privacidade aplicada a profissionais de saúde e direito.
Imagem: cointelegraph.com
Altman relatou que teme usar determinados serviços de IA justamente pela falta de clareza sobre quem pode acessar seus dados pessoais. O executivo também manifestou receio de aumento na vigilância governamental à medida que a adoção de inteligência artificial se expande. Para ele, autoridades buscarão monitorar o uso da tecnologia para impedir atividades terroristas ou ilícitas, o que exige equilíbrio entre segurança coletiva e privacidade individual.
Apesar de admitir estar disposto a ceder parte da privacidade em nome da segurança pública, Altman observou que, “historicamente, governos vão longe demais”, motivo pelo qual defende limites bem definidos.
Com informações de Cointelegraph