Funcionários “contrabandeiam” apps de IA para aumentar produtividade, desafiam políticas internas

Trabalhadores adotam ferramentas de IA não autorizadas para agilizar tarefas, mesmo com riscos de segurança e perda de controle corporativo.

Funcionários de diversos setores têm recorrido a aplicativos de inteligência artificial (IA) pessoais para executar suas atividades no ambiente de trabalho, mesmo sem a aprovação do departamento de Tecnologia da Informação (TI). Essa prática, conhecida como shadow AI – uma variação do conceito de shadow IT –, permite que os trabalhadores utilizem ferramentas não oficiais para otimizar tarefas e ampliar sua produtividade, conforme aponta uma pesquisa da Software AG, na qual metade dos trabalhadores do conhecimento, definidos como “aqueles que trabalham principalmente em uma mesa ou computador”, já utilizam recursos de IA por conta própria.

John, engenheiro de software em uma empresa de tecnologia de serviços financeiros, exemplifica esse comportamento ao afirmar:

“É mais fácil ser perdoado do que obter permissão. Simplesmente siga em frente. E se você tiver problemas depois, resolva.”

Embora sua empresa ofereça o GitHub Copilot para o desenvolvimento de software com suporte de IA, John prefere utilizar o aplicativo Cursor. Ele ressalta:

“É, em grande parte, uma ferramenta superestimada para autocompletar, mas é muito boa. Ele completa 15 linhas por vez, e então você olha e diz, ‘sim, é isso que eu teria digitado’. Isso te liberta. Você se sente mais fluente.”

Para ele, recorrer a ferramentas não autorizadas dispensa a morosidade dos processos de aprovação interna. “Sou preguiçoso e bem pago demais para cobrir as despesas”, comenta, e ainda recomenda que as empresas mantenham flexibilidade na escolha das ferramentas de IA. Segundo John:

“Tenho dito às pessoas no trabalho para não renovarem as licenças de equipe por um ano de cada vez porque em três meses todo o cenário muda. Todo mundo vai querer fazer algo diferente e se sentirá preso pelo custo irrecuperável.”

A recente disponibilização do DeepSeek, um modelo de IA gratuito lançado na China, tende a ampliar ainda mais as opções para os funcionários, o que pode intensificar a prática do shadow AI.

Outro exemplo vem de Peter, gerente de produto em uma empresa de armazenamento de dados. Apesar de sua organização oferecer o chatbot Google Gemini AI e ter regras que proíbem o uso de ferramentas externas, Peter utiliza o ChatGPT por meio da ferramenta de busca Kagi. Ele destaca o potencial da IA para aprimorar seu raciocínio:

“A IA não está tanto te dando respostas, mas te oferecendo um parceiro para debater ideias. Como gerente de produto, você tem muita responsabilidade e não tem muitos bons canais para discutir a estratégia de forma aberta. Essas ferramentas permitem isso de uma forma sem restrições e ilimitada.”

Peter ainda ressalta as vantagens do ChatGPT, cuja versão 4.0 pode analisar vídeos. Segundo ele:

“Você pode obter resumos dos vídeos dos concorrentes e ter uma conversa inteira [com a ferramenta de IA] sobre os pontos dos vídeos e como eles se sobrepõem aos seus próprios produtos.”

Em uma conversa de apenas 10 minutos com o ChatGPT, Peter consegue revisar material que, de outra forma, exigiria duas ou três horas de vídeo, estimando que esse ganho de produtividade equivale a ter um terço de uma pessoa extra trabalhando sem custo para a empresa. Questionando a proibição do uso de IA externa, ele afirma:

“Acho que é uma questão de controle. As empresas querem ter uma palavra sobre as ferramentas que seus funcionários usam. É uma nova fronteira da TI e eles simplesmente querem ser conservadores.”

O uso de aplicativos de IA não autorizados, ou shadow AI, tem atraído atenção não só pelos benefícios em termos de produtividade, mas também pelos riscos envolvidos. Empresas como a Harmonic Security estão monitorando esse cenário, identificando mais de 10 mil aplicativos de IA, dos quais mais de 5 mil já estão em uso. Entre esses, encontram-se versões personalizadas do ChatGPT e softwares corporativos que incorporaram funcionalidades de IA – como o Slack –, ampliando as possibilidades de uso, mas também os desafios de segurança.

Leia também  Davi Alcolumbre do União Brasil é o novo presidente do Senado

Um dos riscos apontados está relacionado ao processo de treinamento das ferramentas modernas de IA, que digerem grandes quantidades de informação. Dados da Harmonic Security indicam que cerca de 30% dos aplicativos em uso treinam utilizando informações inseridas pelos usuários, o que pode implicar que dados sensíveis da empresa se tornem parte do banco de respostas da ferramenta. Apesar de Alastair Paterson, CEO e cofundador da Harmonic Security, afirmar que:

“É bem difícil pegar os dados diretamente dessas [ferramentas de IA]”,
as empresas permanecem apreensivas quanto ao armazenamento e ao controle de informações corporativas em serviços externos, que podem ser vulneráveis a vazamentos.

Simon Haighton-Williams, CEO do The Adaptavist Group, ressalta os benefícios competitivos que a IA pode proporcionar, especialmente para os trabalhadores mais jovens:

“[A IA] permite que você comprima cinco anos de experiência em 30 segundos de engenharia de prompts. Ela não substitui totalmente [a experiência], mas é um grande impulso, da mesma forma que ter uma boa enciclopédia ou uma calculadora permite que você faça coisas que não conseguiria sem essas ferramentas.”

Ao ser questionado sobre o que diria às empresas que descobrem o uso do shadow AI, Simon acrescenta:

“Bem-vindos ao clube. Acho que provavelmente todo mundo faz isso. Sejam pacientes, entendam o que as pessoas estão usando e por quê, e descubram como vocês podem abraçar e gerenciar isso, ao invés de exigir que seja desligado. Você não quer ser deixado para trás como a organização que não [adotou a IA].”

Enquanto alguns funcionários optam por burlar as políticas internas em busca de eficiência, outras empresas têm buscado soluções para conciliar segurança e inovação. A Trimble, por exemplo, desenvolveu o Trimble Assistant, uma ferramenta interna de IA baseada em modelos semelhantes ao ChatGPT, destinada a apoiar os colaboradores em diversas áreas – desde o desenvolvimento de produtos até o suporte ao cliente. Para os desenvolvedores, a empresa mantém o acesso ao GitHub Copilot.

Leia também  Meta Lança IA Capaz de Traduzir Fala em Tempo Real em Mais de 100 Idiomas

Karoliina Torttila, diretora de IA na Trimble, enfatiza a importância do discernimento no ambiente profissional:

“Eu incentivo todos a explorarem todos os tipos de ferramentas em sua vida pessoal, mas reconheçam que a vida profissional é um espaço diferente e existem algumas salvaguardas e considerações a serem feitas lá.”

Ela ressalta ainda que essa prática exige o desenvolvimento de uma nova habilidade:

“Isso nos leva a uma habilidade que todos somos forçados a desenvolver: temos que conseguir entender o que é dado sensível.”

Torttila exemplifica que, assim como não se compartilharia informações médicas de forma descuidada, é necessário ter cuidado com os dados corporativos. Para ela, a experiência adquirida ao usar IA em projetos pessoais pode influenciar as políticas internas das empresas, reforçando a necessidade de um:

“diálogo constante sobre quais ferramentas nos servem melhor.”

Texto adaptado de Sean McManus da BBC e revisado pela nossa redação.

Compartilhar: