A Itália bloqueia o serviço de IA DeepSeek devido a falta de transparência sobre o uso de dados pessoais e preocupações éticas.
A autoridade de proteção de dados da Itália bloqueou o serviço da empresa chinesa de inteligência artificial (IA) DeepSeek no país, citando a falta de clareza sobre o uso de dados pessoais dos usuários.
A decisão veio dias após o Garante, a autoridade italiana, enviar uma série de perguntas à DeepSeek, questionando suas práticas de manipulação de dados e a origem dos dados de treinamento utilizados. A autoridade queria detalhes sobre quais dados pessoais são coletados, de quais fontes, para quais fins, com que base legal e se esses dados são armazenados na China.
Em um comunicado de 30 de janeiro de 2025, o Garante declarou que chegou à decisão após DeepSeek fornecer informações que foram consideradas “completamente insuficientes”. As entidades por trás do serviço, Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, declararam “não operar na Itália e que a legislação europeia não se aplica a elas.”
Como resultado, o órgão regulador bloqueou imediatamente o acesso à DeepSeek e iniciou uma investigação.
No campo da cibersegurança, a autoridade também havia colocado uma proibição temporária sobre o ChatGPT da OpenAI em 2023, que foi levantada em abril após a empresa abordar as preocupações de privacidade de dados. Posteriormente, a OpenAI foi multada em €15 milhões pela forma como lidava com dados pessoais.
A notícia da proibição de DeepSeek surge em um momento em que a empresa ganhava popularidade, com milhões de downloads de seus aplicativos móveis. Além de se tornar alvo de “ataques maliciosos em larga escala“, a DeepSeek atraiu a atenção de legisladores e reguladores devido a sua política de privacidade, censura alinhada com a China, propaganda e preocupações de segurança nacional. A empresa implementou uma correção em 31 de janeiro para lidar com os ataques aos seus serviços.
Adicionalmente, os modelos de linguagem grandes (LLM) da DeepSeek foram identificados como suscetíveis a técnicas de jailbreak como Crescendo, Bad Likert Judge, Deceptive Delight, Do Anything Now (DAN) e EvilBOT, permitindo que maus atores produzam conteúdo malicioso ou proibido.
“Esses modelos forneceram uma gama de saídas prejudiciais, desde instruções detalhadas para criar itens perigosos como coquetéis Molotov até a geração de códigos maliciosos para ataques como injeção de SQL e movimento lateral,” relatou a Unit 42 da Palo Alto Networks em um relatório de quinta-feira.
Avaliações adicionais do modelo de raciocínio DeepSeek-R1 pela empresa de segurança em IA HiddenLayer revelaram vulnerabilidades a injeções de prompts e vazamento acidental de informações através do raciocínio em Cadeia de Pensamento (CoT). Curiosamente, a empresa indicou que o modelo teria usado dados da OpenAI, levantando questões éticas e legais sobre a origem dos dados e a originalidade do modelo.
Também foi descoberta uma falha de jailbreak no ChatGPT-4o da OpenAI, chamada Time Bandit, que permite que atacantes contornem as salvaguardas de segurança do LLM. A OpenAI já corrigiu essa vulnerabilidade.
Falhas semelhantes foram encontradas no assistente de codificação Copilot do GitHub, permitindo que atores mal-intencionados produzam códigos prejudiciais ao usar palavras como “sure” nos prompts.
Fonte original: The Hacker News