DeepSeek R1-0528 Desafia OpenAI e Google com Atualização

Lançamento Silencioso do R1-0528

A startup chinesa DeepSeek lançou, em 29 de maio de 2025, a primeira atualização de seu modelo de raciocínio R1, chamada DeepSeek R1-0528. Sem alarde, o modelo foi disponibilizado na plataforma Hugging Face, intensificando a competição com gigantes americanas como OpenAI e Google. Segundo a empresa, o R1-0528 aprimora significativamente a profundidade de raciocínio, reduzindo alucinações em 45-50% e aproximando-se do desempenho de modelos como OpenAI o3 e Google Gemini 2.5 Pro.

Avanços em Raciocínio e Código

O R1-0528 destaca-se em benchmarks de matemática, programação e lógica. No teste AIME 2025, a precisão subiu de 70% para 87,5%, com respostas mais detalhadas, usando em média 23 mil tokens por questão, contra 12 mil da versão anterior. No LiveCodeBench, o modelo alcançou 73,3% de acurácia, ficando atrás apenas de OpenAI o4-mini (80,2%) e o3 (75,8%), mas superando xAI Grok 3 mini e Alibaba Qwen 3. A atualização também suporta saída JSON e chamadas de função, facilitando a integração por desenvolvedores.

Impacto no Mercado Global

O lançamento do R1 em janeiro de 2025 abalou o mercado, derrubando ações de tecnologia americanas e desafiando a ideia de que IA exige altos investimentos. O R1-0528, open-source sob licença MIT, reforça essa disrupção, oferecendo desempenho de ponta a custos reduzidos – US$ 0,14 por milhão de tokens de entrada, contra US$ 0,18 do GPT-4o. A DeepSeek também lançou uma versão compacta, R1-0528-Qwen3-8B, que roda em GPUs acessíveis, como a NVIDIA RTX 3060, superando o Qwen3-8B em 10% no AIME 2024.

Leia Também:  China lidera desenvolvimento prático da tecnologia quântica em setores estratégicos

Resposta dos Concorrentes

A concorrência reagiu rapidamente. Google introduziu níveis de acesso com desconto para o Gemini, enquanto OpenAI reduziu preços e lançou o o3 Mini, que consome menos recursos. A expectativa por um DeepSeek R2, inicialmente previsto para maio, persiste, mas a empresa optou por consolidar o R1 com esta atualização. A ascensão da DeepSeek desafia restrições de exportação dos EUA, mostrando que a China pode competir em IA com eficiência e baixo custo.

Implicações e Críticas

O modelo tem sido elogiado por sua acessibilidade e desempenho, mas há preocupações com segurança. Relatórios apontam vulnerabilidades, como a exposição de chaves AWS em tags de raciocínio, e restrições em queries sobre democracia, com 85% das respostas suavizadas ou bloqueadas. Apesar disso, a DeepSeek reforça sua missão de democratizar a IA, com o R1-0528 sendo um marco para pesquisa acadêmica e desenvolvimento de modelos menores.

Com informações de Reuters e Hugging Face


Compartilhar: