Você está em | Home | Inteligência Artificial e chatbots | Por que a DeepSeek NÃO copiou a OpenAI

Por que a DeepSeek NÃO copiou a OpenAI

Compartilhe

O DeepSeek R1 representa uma revolução na inteligência artificial ao demonstrar que modelos podem alcançar raciocínio avançado sem a necessidade de gigantescos conjuntos de dados rotulados.

Tradicionalmente, empresas como OpenAI, Google e Meta dominaram esse espaço devido ao acesso a vastos recursos computacionais e informações classificadas. Já o DeepSeek adotou uma abordagem inovadora, focando no aprendizado por reforço, permitindo que a IA desenvolvesse capacidades cognitivas de forma mais autônoma e eficiente.

O método é a principal explicação para a redução drástica dos custos para treinamento da Deepseek, e abre as portas para a democratização do desenvolvimento de IAs avançadas, tornando essas plataformas acessíveis para grupos menores e startups com orçamentos reduzidos.

 

O processo de treinamento da DeepSeek R1

O treinamento do DeepSeek R1 ocorre em duas fases.

Inicialmente, o modelo R1-Zero aprende a raciocinar por meio de tentativa e erro, utilizando exclusivamente o aprendizado por reforço. O método imita a forma como os humanos desenvolvem habilidades cognitivas, experimentando diferentes estratégias até encontrar as mais eficazes.

Na segunda fase, o modelo recebe uma pequena quantidade de dados rotulados para aprimorar aspectos como coerência e legibilidade. Sua arquitetura utiliza o conceito de Expert Mix (MoE), operando com 671 bilhões de parâmetros no total, mas ativando apenas 37 bilhões por consulta.

Essa otimização permite que o DeepSeek R1 alcance um desempenho comparável ao OpenAI GPT-4, mas com uma fração do custo computacional, sendo então uma alternativa altamente eficiente.

Por outro lado, o mesmo método é fonte de acusações da OpenAI de uso indevido da API da plataforma de Sam Altman, violando os seus termos de uso.

Aqui, podemos dizer que é um caso do “ladrão que rouba ladrão”, já que a OpenAI fez exatamente a mesma coisa que a DeepSeek: pegou dados da internet de forma indiscriminada para treinar o seu GPT.

As únicas diferenças é que a OpenAI usou uma escala muito maior de dados, e alegou o “uso justo” de informações públicas na internet.

Hipocrisia por parte da OpenAI?

Talvez. O tempo vai dizer.

 

O contraste com os métodos tradicionais

Enquanto gigantes da tecnologia investem centenas de milhões de dólares para alimentar suas IAs com dados meticulosamente marcados, o DeepSeek conseguiu um avanço notável com um orçamento declarado inferior a 6 milhões de dólares.

Além disso, modelos menores desenvolvidos pela empresa, variando entre 1,5 bilhão e 70 bilhões de parâmetros, também apresentaram resultados impressionantes.

Tudo isso desafia o paradigma de que apenas empresas com grandes investimentos podem desenvolver IAs poderosas. O DeepSeek prova que técnicas mais refinadas de aprendizado podem substituir a necessidade de quantidades massivas de dados, abrindo portas para inovação em um mercado tradicionalmente dominado por poucas corporações.

Para avaliar a capacidade de raciocínio do DeepSeek R1, vamos ao teste prático: a IA foi questionada sobre qual time de futebol espanhol melhor representaria o site Xataka.

Em resposta, o modelo demonstrou um processo cognitivo elaborado, analisando e descartando diversas opções com base em critérios como inovação, identidade e liderança no setor.

Ele inicialmente explorou clubes como Athletic Bilbao, Valencia, Barcelona e Rayo Vallecano, argumentando sobre suas características, mas descartou essas equipes por não se alinharem perfeitamente ao perfil do Xataka.

Após uma análise detalhada, chegou à conclusão de que o Girona FC era a melhor representação do site, destacando sua abordagem inovadora, uso estratégico de dados e adaptação tecnológica.

O exercício demonstrou que o DeepSeek R1 não apenas compila informações, mas também reflete e constrói uma linha de pensamento estruturada, um feito impressionante para uma IA treinada sem grandes volumes de dados rotulados.

Ou seja… por mais que a OpenAI acuse a DeepSeek de violar os seus termos de uso ao utilizar suas APIs para treinar um modelo de IA menor, é a forma em como esses dados são trabalhados e estruturados para o usuário que realmente chama a atenção na proposta dos chineses.

O DeepSeek não se limita a oferecer respostas. Ele entrega um raciocínio lógico para chegar nos resultados, oferecendo para o usuário uma resposta contextualizada e argumentativa sobre o tema proposto.

 

Um ponto de inflexão

O desenvolvimento do DeepSeek R1 representa um ponto de inflexão na corrida tecnológica pela inteligência artificial.

Ao demonstrar que modelos podem desenvolver habilidades avançadas de forma autônoma, ele desafia a necessidade de supercomputadores e investimentos massivos, permitindo que pequenas equipes e startups tenham acesso a ferramentas poderosas.

Para OpenAI, Microsoft, Google e outras empresas, ficou difícil justificar para os investidores as toneladas de dinheiro despejadas no desenvolvimento das plataformas de IA, quando uma startup chinesa apresenta uma proposta inovadora, tão eficiente quanto (ou mais) e muito mais barata.

E é por isso que a recente batalha do “quem roubou quem” começou, e já é tão importante para todos os envolvidos.

A popularização do aprendizado por reforço e a destilação de modelos podem transformar o setor de Inteligência Artificial, reduzindo a dependência de bancos de dados gigantescos e abrindo caminho para novos concorrentes no mercado de IA.

Não estamos diante de uma melhoria incremental apenas e tão somente, mas de uma reconfiguração completa da forma como se constrói a inteligência artificial.

É uma quebra de paradigma.

É o início de uma nova fase.


Compartilhe