Microsoft Pressiona Funcionários a Usar Ferramentas de IA em Avaliações de Desempenho
A Microsoft está intensificando a adoção de inteligência artificial (IA) entre seus funcionários, com uma diretiva que torna o uso de ferramentas de IA obrigatório. Um memorando interno vazado, assinado por Julia Liuson, vice-presidente corporativa da Divisão de Desenvolvedores, revela que os gerentes agora devem avaliar os funcionários com base no uso de ferramentas como o GitHub Copilot. “A IA não é mais opcional, é central para todos os papéis e níveis”, escreveu Liuson, comparando sua importância a habilidades como colaboração e comunicação. A empresa considera até incluir uma métrica formal de uso de IA nas revisões de desempenho para o próximo ano fiscal.
Contexto e Lógica da Decisão
A medida visa aumentar a familiaridade dos funcionários com ferramentas de IA, especialmente entre aqueles que desenvolvem esses produtos, para melhorar a experiência do usuário. No entanto, o memorando também reflete uma tentativa de impulsionar a adoção interna do Copilot, que enfrenta dificuldades para ganhar tração. Com apenas 33 milhões de usuários em 2025, contra 400 milhões do ChatGPT, o Copilot sofre com críticas de ser “bloatware” e com a polêmica do recurso Recall, que tira capturas de tela a cada poucos segundos para rastrear atividades, levantando preocupações com privacidade. “A Microsoft teve que recuar no Recall devido a temores de segurança”, aponta o artigo, destacando a desconfiança dos usuários.
Críticas e Resistência
A obrigatoriedade do uso de IA gerou reações negativas. Usuários do Windows 11 frequentemente chamam o Copilot de invasivo, instalado por padrão sem opção clara de desativação. “90% dos usuários não querem IA forçada em seus PCs”, disse um usuário em fóruns online. Internamente, há temores de que a pressão por produtividade com IA resulte em código de baixa qualidade ou demissões, com funcionários sendo incentivados a treinar modelos que podem substituí-los. Um post no Reddit criticou: “É uma desculpa para reduzir equipes e sobrecarregar os que ficam”. A decisão também levanta questões éticas, especialmente após a demissão da equipe de ética em IA da Microsoft em 2023, que trabalhava para mitigar riscos em projetos como o Copilot.
Implicações para o Futuro
A estratégia da Microsoft reflete uma tendência mais ampla no setor de tecnologia, onde empresas como Salesforce relatam que a IA já realiza até 50% de certas tarefas. No entanto, a pressão para adotar ferramentas ainda imaturas pode comprometer a qualidade do trabalho e a confiança dos funcionários. A obrigatoriedade do uso de IA, sem casos de uso claros, pode levar a uma adoção superficial, como prompts irrelevantes para inflar métricas, enquanto o potencial real da IA permanece subaproveitado. A situação destaca o desafio de equilibrar inovação com responsabilidade e aceitação dos usuários.
Redação Movimento PB com informações de PC Gamer, Business Insider.