Skip to main content

DeepSeek põe fim às pesquisas online tradicionais e com cara de 2005. Se você ainda usa métodos ‘old school’, é melhor acordar logo…

A HONOR começou a brincadeira… DeepSeek R1 no smartphone, YOYO Assistente… Agora é só tirar um cochilo!

Então… O DeepSeek AI, que criou um rebuliço nas big techs dos EUA, agora vai direto para os smartphones.

A HONOR confirmou a integração com o seu assistente de voz YOYO.

O DeepSeek R1 estará disponível em modelos com MagicOS 8.0 ou superior – mas por enquanto, é só na China.

A HONOR que estava sumida do mercado por um tempo está voltando com novos modelos.

Mas, sinceramente, o impacto vai ser o mesmo de sempre.

Nada de fato novo aqui.

Ah, e antes que você se anime muito, vale lembrar que alguns países como Austrália, Coreia do Sul, Itália, Japão e Taiwan já bloquearam o DeepSeek AI, e outros podem seguir o mesmo caminho.

Nos Estados Unidos, a expectativa de banimento também está no ar.

Enquanto isso, o mercado asiático continua catando essas inovações com um sorriso e ignorando as restrições.

Só que no final, quem está ganhando de verdade é o Google com seu assistente de voz que já caiu na graça das massas.

O DeepSeek e a HONOR ainda têm um longo caminho pela frente para sair das sombras e realmente causar algum impacto.

O app DeepSeek politizando tudo…

As grandes potências tentando “brilhar” à sua maneira…

Até agora, as empresas dos EUA estavam dominando o campo da IA.

Mas agora a China trouxe o DeepSeek, uma IA barata que ‘desbancou’ o ChatGPT no número de downloads.

Massss, como toda boa inovação vinda da China, não demora muito para que outros países comecem a ficar desconfiados sobre a segurança das informações.

Por isso, várias nações já proibiram seu uso.

A Itália foi a primeira a bloquear o DeepSeek em seus app stores, exigindo mais informações sobre como a plataforma lida com dados pessoais.

Já Taiwan proibiu o uso desse app em setores públicos.

E enquanto isso, a China, sempre pronta para reclamar quando suas “inovações” são rejeitadas.

Ela fez questão de chamar a proibição de “politização do comércio”.

O porta-voz do Ministério das Relações Exteriores da China, Zhao Lijian, afirmou que o governo chinês nunca pediu a coleta ilegal de dados e que os direitos legais das empresas chinesas devem ser protegidos.

Por outro lado, a OpenAI, com seu ChatGPT, resolveu dar uma repaginada para continuar relevante.

Ela permitiu as buscas abertas ao estilo Google sem a necessidade de criar uma conta.

Ela deu aquele empurrãozinho para tentar manter a liderança no mercado.

A verdade é que o DeepSeek e outros concorrentes como o Google Gemini ainda têm um longo caminho a percorrer.

Especialmente com todas essas barreiras e acusações de espionagem.

O mercado de IA está se tornando um jogo de gato e rato, com cada país tentando se proteger dos outros, enquanto todos tentam vender suas “maravilhas tecnológicas”.

E enquanto os países mais poderosos bloqueiam ou limitam as plataformas, a luta pelo domínio continua.

Mas os consumidores são os únicos que perdem de verdade com essas mudanças constantes.

O que aconteceu com o ChatGPT que de repente perdeu o fôlego?

Parece que, de repente, o ChatGPT, aquele “rei da conversa inteligente”, viu seu trono ameaçado por uma IA que surgiu do nada – ou melhor, da China – e começou a desafiar a supremacia do OpenAI.

O DeepSeek R1 está deixando o ChatGPT para trás com uma combinação de preço mais baixo e desempenho mais rápido.

O DeepSeek é um modelo de Large Language Model (LLM).

É ótimo para realizar pesquisas, gerar códigos de programação e até escrever textos como um ser humano faria.

Se você estiver perdido em alguma dúvida ou precisar escrever alguma coisa, tanto o DeepSeek quanto o ChatGPT estão prontos para lhe dar uma mãozinha.

O DeepSeek foi lançado oficialmente em Hangzhou, China, e está sendo operado pelo DeepSeek-V3.

A grande questão aqui é: o modelo foi criado para ser acessível, com uma versão gratuita, disponível na Apple App Store e na Google Play Store.

Mas, claro, você também pode ir direto ao site e fazer o download sem pagar nada.

Se você quiser alguns recursos adicionais, vai ter que gastar, mas ainda assim, é mais barato do que os concorrentes como o ChatGPT.

Esse crescimento do DeepSeek fez os mercados de ações nos EUA perderem quase 1 trilhão de dólares em valor.

Para tornar a coisa ainda mais interessante, enquanto o ChatGPT serve para contar piadas e criar histórias, o DeepSeek R1 é bom mesmo em programação.

Se você é daqueles que programam em Python ou Java, o DeepSeek vai ajudar muito, enquanto o ChatGPT só vai dar uma mãozinha nas conversas.

Agora, se você está se perguntando como usar o DeepSeek R1 em seu celular ou computador, aqui vai a resposta: é simples.

Basta procurar por DeepSeek R1 na Apple App Store ou Google Play Store, baixar o aplicativo e começar.

Para a versão de computador, é só acessar o site, criar uma conta (com seu e-mail ou número de telefone, mas com a ressalva de que, por motivos técnicos, o site pode não estar aceitando novos registros por enquanto).

Resumindo a novela: o DeepSeek chegou para desafiar a supremacia do ChatGPT e, no processo, deu um empurrãozinho para a China tomar a dianteira nesse mercado.

Mas e a segurança do DeepSeek?

O DeepSeek já criou tanto alvoroço que até as questões de privacidade de dados e segurança nacional começaram a ser levantadas.

O que parecia uma simples nova entrada no mercado de IA está se tornando um pesadelo para muitos.

Principalmente para os governos de países como os Estados Unidos.

Afinal, por que tantos países, incluindo a América, bloquearam o acesso ao aplicativo?

O preço pelo qual esse app chegou ao topo foi bem alto… e não é o tipo de preço que você gostaria de pagar.

Primeiro, o DeepSeek não só impactou as ações de gigantes como a Nvidia, mas também fez o NASDAQ sofrer uma perda histórica de 600 bilhões de dólares em apenas um dia.

Esse foi o maior tombo de um único dia na história das bolsas de valores americanas.

Mas vamos falar sobre o que está por trás desse sucesso: um orçamento bem baixo para um impacto tão grande.

Enquanto o OpenAI gastou milhões de dólares para criar o ChatGPT, o DeepSeek foi feito por meros 6 milhões de dólares.

O segredo?

Um custo de produção minúsculo, mas a um preço altamente questionável quando se trata de segurança e privacidade.

Dizem que, por ser de baixo custo, o DeepSeek deixou de lado questões de segurança fundamentais.

A ferramentas Meta, Llama e Qwen deram vida ao DeepSeek.

O problema é que, ao fazer isso, falta uma proteção de dados adequada.

De acordo com a empresa LatticeFlow AI que analisa modelos de IA na Suíça, o DeepSeek é o pior em termos de segurança cibernética.

Os especialistas alertam que não é uma boa ideia confiar em uma IA capaz de responder perguntas perigosas como: “Como fazer uma bomba?” ou “Como escapar da prisão?”.

Essas são questões que qualquer IA não deveria responder, certo?

Mas, o DeepSeek é uma mina de ouro para esse tipo de coisa.

Além disso, dados sensíveis de empresas também podem ser expostos por essa ferramenta.

É como dar a chave do cofre para qualquer um.

E o pior é que não para por aí.

O DeepSeek também tem uma falha grave nas suas políticas de privacidade.

Ele permite que os dados dos usuários sejam armazenados em servidores na China – e isso não é só algo teórico.

O que se descobre é que dados dos usuários estão sendo repassados diretamente ao governo chinês.

Pode ficar mais paranoico do que isso?

E o saldo dessa conta?

Um aplicativo que começou com 6 milhões de dólares e uma chuva de downloads, mas que, no fundo, está sujando as mãos com a privacidade e segurança global.

Quando o preço é baixo demais, você pode ter certeza de que alguém vai pagar a conta mais tarde.

E, pelo visto, esse alguém pode ser o mundo inteiro…

Indo mais a fundo na história da chinesinha

Fundada em 2023 por Liang Wenfeng, o DeepSeek se estabeleceu com um objetivo claro: desenvolver modelos de IA de código aberto.

Claro, o financiamento vem do fundo de hedge High-Flyer.

E a empresa se orgulha de conseguir respostas comparáveis aos modelos mais estabelecidos no mercado como o GPT-4 da OpenAI.

Mas aqui vai o primeiro truque: o modelo DeepSeek-R1 oferece essas respostas com um custo de treinamento bem mais baixo.

Enquanto o GPT-4 da OpenAI custou 100 milhões de dólares, o DeepSeek treinou o R1 com meros 6 milhões de dólares.

Parece bom demais para ser verdade, não?

E acredite, tem caroço nesse angu.

Os modelos de IA da DeepSeek foram criados no meio de sanções dos Estados Unidos contra a China e outros países.

Um movimento planejado para minar a capacidade de desenvolvimento tecnológico desses países.

Mas, ao invés de sucumbir, a DeepSeek usou essas restrições para, vamos dizer, surfar na onda de uma oportunidade.

E como se não fosse o suficiente, a empresa consegue desenvolver IA com preços melhores.

Isso causou uma guerra de preços entre as empresas de tecnologia chinesas, como ByteDance, Tencent e Alibaba.

E aqui vem a parte ‘legal’: as práticas de coleta de dados da DeepSeek.

Você pensou que ia escapar de um escândalo de privacidade?

O modelo da empresa segue a política de censura do governo chinês com uma delicadeza impressionante.

Se você achar que a DeepSeek não vai limitar suas respostas sobre temas como o massacre de Tiananmen ou o status político de Taiwan, é bom repensar as suas escolhas.

A empresa recrutou pesquisadores de IA das top universidades chinesas.

Mas também pegou gente de fora da área de TI para tentar dar diversidade ao seu pool de conhecimento.

O que é mais intrigante é a história de como tudo começou.

Liang Wenfeng, o fundador, estava focado em modelos de aprendizado profundo voltados para o mercado financeiro, antes de entrar de cabeça no mundo da IA.

Em 2021, ele começou a estocar GPUs da Nvidia para um “projeto secreto de IA”.

Em um movimento estratégico, ele comprou 10.000 unidades do chip A100 antes que os Estados Unidos bloqueassem a venda de chips para a China.

Em termos de hardware, a DeepSeek conta com clusters de computação fortes como o Fire-Flyer 2 que tem 5.000 GPUs A100 conectadas a uma rede de 200 Gbps.

Nada mal para uma empresa que começou a ganhar destaque há pouco mais de dois anos.

Agora, em 2025, com milhões de downloads e uma previsão de crescimento mais acelerada, a DeepSeek superou gigantes em alguns mercados.

E tudo isso com um custo-benefício relevante.

Mas atente-se: ao adotar essa tecnologia, você está não só alimentando um gigante da IA da China.

Você também está dando seus dados para um regime que tem interesses claros em controlar informações.

Se a privacidade e a liberdade de expressão importam para você, é bom ficar entender as entrelinhas.

Em vez de pagar 100 milhões de dólares por um modelo de IA, por que não pegar a versão mais barata, da DeepSeek, e enviar seus dados para a China?

A tecnologia é boa, mas será que vale a pena o preço da sua privacidade?

Uma visão mais geral desses modelos

Essa seção vai ser um choque para a maioria dos leitores comuns, pois ela é pura sopa de letrinhas para especialistas.

Mas, como sempre, vou tentar explicar o que está acontecendo sem perder a complexidade (embora seja tentador).

O DeepSeek Coder

O DeepSeek Coder é uma série de oito modelos: quatro pré-treinados (Base) e quatro ajustados por instruções (Instruct).

Todos eles têm um comprimento de contexto de 16K.

O código do modelo foi liberado como código aberto sob a Licença MIT, mas, claro, tem uma cláusula extra chamada “licença DeepSeek”, que fala sobre o uso responsável da ferramenta (nada de sair fazendo maluquice com ela, ok?).

O treinamento dos modelos foi assim:

  • Pré-treinamento: 1.8 trilhões de tokens (87% código-fonte, 10% código relacionado ao inglês (GitHub e Stack Exchange), e 3% chinês não relacionado ao código).
  • Pré-treinamento com Longo Contexto: 200 bilhões de tokens. Esse passo estendeu o comprimento de contexto de 4K para 16K, gerando os modelos Base.
  • Ajuste Supervisionado (SFT): 2 bilhões de tokens de dados instrucionais. Isso resultou nos modelos Instruct.

Esses modelos foram treinados em clusters de GPUs Nvidia A100 e H800, conectados por InfiniBand, NVLink e NVSwitch (nada de hardware barato por aqui, meu caro).

As features mais relevantes
  • O modelo varia de 1,3 bilhões a 33 bilhões de parâmetros.
  • Profundidade de camadas e complexidade aumentam conforme o número de parâmetros. Não se preocupe em entender tudo, a coisa é só para quem gosta de números gigantes, mas basicamente, você vai encontrar modelos com mais camadas e cabeçalhos quanto maior o modelo.

O DeepSeek-LLM

São modelos com 7B e 67B parâmetros, tanto na versão Base quanto na versão Chat.

O benchmark prometeu ser mais forte que a maioria dos LLMs open-source de então, incluindo o Llama 2 (mas será que é mesmo?).

O código também foi liberado sob a Licença MIT com a famosa “DeepSeek license”.

Agora, a arquitetura do modelo: eles copiaram o que o Llama fazia.

Usaram um Transformer com decodificador pré-normalizado, normalização RMSNorm, SwiGLU nas camadas feedforward, e claro, a combinação de embeddings rotativos e atenção agrupada.

Nada inovador, mas é uma fórmula que funciona.

Os Modelos DeepSeek LLM:
  • O modelo com 7B tem 30 camadas, e o de 67B vai até 95. Não precisa se preocupar com os números, o importante é entender que quanto mais parâmetros, mais poder (e mais memória) o modelo tem.

O que diabos é MoE (Mixture of Experts)?

Aqui temos o DeepSeek-MoE que é uma versão do modelo anterior, mas com 16 bilhões de parâmetros.

Esse tipo de modelo se baseia em uma abordagem chamada Mixture of Experts (MoE).

Ela tenta resolver o problema de “especialistas não utilizados”, garantindo que as redes de especialistas mais essenciais sejam usadas com mais frequência.

Um “gênio”, né?

Mas na prática, isso só tenta melhorar a eficiência de um modelo que de outra forma seria uma máquina de desperdício de capacidade.

O DeepSeek-Math

Ah, e para os fanáticos por matemática, o DeepSeek-Math chegou com três modelos: Base, Instruct e RL.

Eles usaram uma mistura de pré-treinamento e ajuste supervisionado para chegar à versão final.

Em suma, usaram 500 bilhões de tokens de matemática e uma tonelada de dados de código para o pré-treinamento.

E quem são V2 e V3?

Depois de muita especulação, a série V2 foi lançada em maio de 2024, e a V3 já veio com várias melhorias.

A grande novidade foi a extensão do contexto que agora pode ser de até 128K e melhorias no processamento paralelo para aumentar a eficiência (pois só um exército de GPUs poderia lidar com tanto dado).

DeepSeek V3 já vem com 671 bilhões de parâmetros e usa otimização de precisão mista para não falir durante o treinamento.

Eles também melhoraram a velocidade, pois quem precisa de precisão quando a velocidade é a chave?

Aqui, eles investiram em formas avançadas de “multi-token prediction”, o que aumenta a quantidade de tokens decodificados por segundo, mesmo que o modelo erre um pouco mais.

O bendito R1

Por fim, temos o DeepSeek-R1, o modelo treinado para resolver problemas lógicos, matemáticos e de programação.

Essa belezura foi lançada sem muitos detalhes sobre como exatamente foi treinada, mas dizem por aí que é mais rápido e eficiente que o OpenAI O1 em várias tarefas.


Agora, para o pessoal que adora números e gráficos: os preços (não que alguém que se importe com isso tenha tempo para ver os custos de treinamento, mas vai lá).

Para treinar o DeepSeek-V3, custou $5.5 milhões.

DeepSeek-V3 foi comparado com outros gigantes como Llama 3.1 e GPT-4.

E para fechar com chave de ouro: os impactos financeiros.

Em janeiro de 2025, um blog post incendiou os mercados, derrubando as ações da Nvidia em um dia.

A razão?

A alegada eficiência computacional das novas tecnologias DeepSeek que estavam prestes a ameaçar o reinado da Nvidia no mercado de data centers.

Mais uma vez, o “inovador” DeepSeek mostrou seu poder, dessa vez, não no código, mas no mercado de ações.


Espero que isso tenha sido “esclarecedor” para você.

E sim, a complexidade é tamanha que se você ainda está com dúvidas, não se preocupe: a culpa não é sua, é do próprio texto.

Pedro Londe 

Palestrante e autor do livro “O que diabos é Gig Economy?: Como ter várias fontes de renda e aproveitar ao máximo todas as suas habilidades”

Pedro Londe

Brasileiro com orgulho, Pedro Londe trabalha com auditoria e tecnologia no Governo Federal há mais de 10 anos, atua como palestrante e pesquisador e adora tudo que envolva inteligência artificial e dados. Ele também escreve livros de não-ficção para pessoas curiosas e questionadoras. Educador por opção, o autor acredita no poder das palavras, da disciplina e da família para um mundo melhor. Compartilhar experiências e aprender é a grande missão de Pedro Londe.

Deixe uma resposta

Fique por dentro das melhores novidades sobre inteligência artificial

Receba conteúdos inéditos no seu email