Inteligência ArtificialTecnologia

IA invasora se infiltra em reuniões corporativas sem autorização

IA invasora se infiltra em reuniões corporativas sem autorização

Ferramentas como Read AI e Otter entram em videoconferências automaticamente, gerando preocupações sobre privacidade empresarial

Participantes misteriosos aparecem em videoconferências

Profissionais de todo o mundo relatam situações similares: durante reuniões virtuais, surgem participantes não convidados identificados como “AI Notetaker” ou “Read Assistant”. Essas inteligências artificiais entram silenciosamente em videoconferências através de plataformas como Zoom e Teams, gravando, transcrevendo e prometendo enviar resumos posteriormente.

Ferramentas como Read AI, Otter e TacTiq oferecem recursos automatizados de registro e análise de reuniões, mas têm gerado preocupações por sua atuação sem consentimento explícito de todos os participantes.

Universidade de Washington bane transcrições automáticas

A Universidade de Washington (UW) proibiu em março de 2024 o uso de transcritores de IA em reuniões realizadas via Zoom e Teams. A decisão ocorreu após relatos de transcrições automáticas realizadas sem conhecimento prévio de todos os participantes.

Segundo comunicado da instituição, as ferramentas foram consideradas “eticamente arriscadas” por permitir que qualquer participante acione gravação e compartilhe relatórios externos, mesmo não sendo organizador do evento. A universidade registrou casos em que a Read AI tentava entrar em reuniões mesmo após exclusão de contas associadas.

Semelhanças com softwares invasivos do passado

O comportamento dessas IA assistentes evoca casos históricos de ferramentas consideradas invasivas. Profissionais de segurança citam exemplos como Baidu Antivirus, que nos anos 2010 foi criticado por varreduras automáticas, instalação sem clareza e coleta de dados sem consentimento detalhado.

Leia Também:  Lula confirma visita ao Sertão da Paraíba para esta quarta-feira

Outros produtos como Norton e AVG enfrentaram críticas semelhantes por dificultar desinstalação e consumir recursos mesmo após desativação, operando em zona cinzenta entre usabilidade e transparência técnica.

Má configuração potencializa riscos de segurança

O Data Breach Investigations Report 2024 da Verizon aponta que 74% das violações analisadas no último ano envolveram “elemento humano”, especialmente erros, configurações inseguras e uso indevido de credenciais legítimas. A maioria das violações começa com acessos tecnicamente autorizados, mas operando fora dos limites esperados.

Esse cenário se encaixa perfeitamente no problema das ferramentas de IA não autorizadas: sistemas tecnicamente autorizados, mas ativados em contextos sensíveis sem ciência plena dos envolvidos.

Vácuo regulatório facilita práticas intrusivas

Especialistas em governança de dados alertam que a ausência de políticas claras sobre uso de IA em videoconferências cria vácuo regulatório. Nesse ambiente, ferramentas legítimas podem agir de forma intrusiva sem violar diretamente as regras das plataformas onde operam.

A questão central não está na funcionalidade das ferramentas, mas no modo como estão sendo integradas aos sistemas corporativos, muitas vezes sem clareza sobre quem autorizou ou controla o que é gravado.

Com informações de Exame, Verizon, Universidade de Washington

Compartilhar: