ChatGPT vaza CPFs de figuras públicas após mudar regras de dados, mas OpenAI promete corrigir falha que fere suas políticas.
O ChatGPT, criado pela OpenAI, acabou deixando vazar CPFs de figuras públicas, além de atas de empresas e notas fiscais ligadas a eleições. Isso aconteceu logo depois de a plataforma mexer nas suas regras de proteção de dados, levantando preocupações sobre segurança digital.
Segundo o jornal Estado de Minas, a OpenAI admitiu o problema e disse que está correndo atrás de uma solução. “Treinamos o ChatGPT pra não passar identificadores oficiais, como CPFs, mesmo que eles estejam na internet. Agradecemos quem apontou esses casos e já estamos resolvendo”, afirmou a empresa em nota. O CPF é essencial no Brasil, usado pra tudo — desde filiação a partidos até contratar serviços —, e pode abrir brechas pra fraudes se cair em mãos erradas.
A Lei Geral de Proteção de Dados (LGPD) não vê dados como CPF como “sensíveis” — esses seriam informações que levam a discriminação, tipo raça, religião ou orientação sexual. Mesmo assim, a OpenAI reforça que divulgar dados pessoais vai contra suas próprias regras. “Temos medidas pra proteger essas informações contra perda ou uso indevido”, diz a política de privacidade da ferramenta. Mas eles também jogam um alerta: “Nada na internet é 100% seguro, então cuidado com o que você compartilha”.
O caso gerou desconfiança, e o Poder360 resolveu testar na manhã desta sexta-feira (21). Perguntaram ao ChatGPT os CPFs de nomes como Jair Bolsonaro e Luiz Inácio Lula da Silva, mas o robô travou o pedido. “Desculpe, não posso ajudar com isso”, respondeu, mostrando que algum filtro já pode estar funcionando. Mesmo assim, a OpenAI não deu retorno direto ao jornal sobre o assunto.
A falha expõe um dilema: enquanto a tecnologia avança, os riscos de vazamentos crescem, mesmo com promessas de proteção. Por enquanto, a empresa garante que tá de olho pra evitar mais escorregões.
—
Texto adaptado de informações do Estado de Minas e revisado pela nossa redação.