Uma pequena startup chinesa acabou de forçar as maiores empresas de tecnologia dos EUA a repensarem como constroem inteligência artificial.
O lançamento do modelo R1 da DeepSeek, que supostamente iguala ou supera as capacidades dos sistemas de IA desenvolvidos nos EUA por uma fração do custo, desencadeou uma grande venda de ações do setor de tecnologia, eliminando quase US$ 600 bilhões do valor de mercado da Nvidia.
O impacto atingiu em cheio o setor tecnológico americano, levando líderes da indústria a correr para analisar como a DeepSeek alcançou tais resultados.
Ainda que algumas questões permaneçam em aberto, após a análise do código-fonte aberto, o consenso até agora é que os desenvolvedores chineses são melhores em construir modelos eficientes. E os gigantes da IA preferiram adotar um tom otimista, abraçando a ideia de que qualquer avanço na tecnologia é positivo para o setor.
Como OpenAI, Meta e Trump reagiram
Sam Altman, da OpenAI, reconheceu o desempenho impressionante do modelo e prometeu acelerar o lançamento de “modelos melhores”.
Mark Zuckerberg, da Meta, afirmou que sua empresa montou múltiplas “salas de guerra” cheias de engenheiros focados em analisar a tecnologia da DeepSeek e traçar uma resposta estratégica.
Enquanto isso, o presidente dos EUA, Donald Trump, sempre atento ao ciclo de notícias, classificou o avanço da DeepSeek como um “alerta” e, ao mesmo tempo, um desenvolvimento positivo para a tecnologia dos EUA, dizendo que “agora não será preciso gastar tanto dinheiro”.
A era pós-DeepSeek
Agora, deixando de lado o que eles estão dizendo, vamos considerar o que provavelmente farão para responder à DeepSeek.
Vários dos grandes players de código fechado já estão discretamente incorporando os métodos da startup em seus próprios modelos — só não anunciarão isso publicamente.
Por exemplo, a Perplexity já implementou o modelo em seu mecanismo de busca, e o Groq o disponibilizou para rodar inferências em tempo recorde.
A maioria dos gigantes da IA nos EUA, incluindo a Meta, está se adaptando à DeepSeek ou buscando maneiras de aproveitar sua tecnologia.
À medida que o pânico inicial do mercado diminui — as ações da Nvidia se recuperaram 9% hoje — líderes do setor apontam para um princípio econômico contraintuitivo que sugere que a eficiência da DeepSeek pode aumentar a demanda por hardware de IA.
Conhecido como o Paradoxo de Jevons, esse conceito explica por que avanços tecnológicos costumam expandir o uso em vez de reduzir o consumo.
“À medida que a IA se torna mais eficiente e acessível, veremos seu uso disparar, tornando-se uma commodity da qual não conseguimos mais abrir mão”, disse Satya Nadella, CEO da Microsoft, maior investidora da OpenAI.
Mesmo sofrendo a maior queda de valor de mercado em um único dia na história de Wall Street, a Nvidia enxerga o avanço da DeepSeek como uma oportunidade.
“O bolo acabou de crescer — e rápido”, tuitou Jim Fan, pesquisador-chefe da Nvidia, na segunda-feira. “Nós, como humanidade, estamos marchando mais rapidamente em direção à AGI universal.”
Ou seja, se o paradoxo de Jevons se aplicar, o fato de a DeepSeek demonstrar que modelos de IA de alta qualidade podem ser construídos com poucos recursos computacionais não significa que usaremos menos GPUs. Pelo contrário, os gigantes do setor podem se tornar ainda maiores.
Na outra ponta, com a queda da barreira de entrada, um número crescente de novos desenvolvedores e empresas deve ingressar no setor de IA.
A explosão de novos projetos provavelmente impulsionará a demanda por chips e poder computacional a níveis sem precedentes. Claro, nem todos os chips são iguais quando o assunto é IA, e o mercado aparentemente decidiu que os chips da Apple podem ter uma vantagem sobre os da Nvidia nesse novo cenário.
Leia Também
É por isso que as ações da Apple subiram 8% nesta semana, apesar de seu sistema de IA para consumidores, o “Apple Intelligence”, ser ridicularizado como um oxímoro.
O argumento é que os chips da Apple são mais eficientes em termos de energia, projetados para uso local, enquanto os chips da Nvidia são voltados para grandes data centers. Além disso, possuem uma arquitetura de memória unificada (UMA), em que CPU, GPU e Neural Engine compartilham um único pool de memória ultrarrápida.
Isso elimina a necessidade de transferir dados entre componentes separados, reduzindo a latência e aumentando a eficiência em cargas de trabalho de IA. Para modelos como o da DeepSeek, que dependem de acesso rápido à memória para operações complexas, a UMA supostamente melhora significativamente o desempenho.
O dilema do inovador e o futuro da IA
Em meio ao Dilema do Inovador, é improvável que a Nvidia mude sua estratégia, já que domina o fornecimento de hardware para IA graças à sua monopolização da arquitetura CUDA, essencial para rodar e desenvolver a maioria dos modelos de IA atuais.
A DeepSeek não desafia esse monopólio — mas a China está trabalhando nisso, buscando impulsionar a adoção da linha de chips Huawei Ascend.
Por enquanto, a Microsoft não parece preocupada em mudar sua estratégia como fornecedora de infraestrutura.
No entanto, a OpenAI fez um pequeno ajuste para conter a insatisfação de seus usuários, oferecendo aos assinantes Plus (que pagam US$ 20 por mês) alguns recursos que antes eram exclusivos dos assinantes Pro (que pagam US$ 200 por mês), para evitar a perda de clientes.
Outra empresa com grande interesse nesse jogo é a Meta, desenvolvedora do Llama — a maior e mais popular família de LLMs de código aberto do mundo.
A Meta já se comprometeu a investir US$ 65 bilhões em infraestrutura de IA este ano.
O cientista-chefe de IA da empresa, Yann LeCun, também adotou uma visão positiva sobre ter sido superado por uma pequena startup chinesa:
“Para aqueles que veem o desempenho da DeepSeek e pensam: ‘A China está superando os EUA em IA’, vocês estão lendo isso errado. A leitura correta é: ‘Modelos de código aberto estão superando os proprietários’”, postou LeCun no LinkedIn.
Não se surpreenda se a Meta adotar os métodos da DeepSeek para aprimorar o Llama-4.
“Como o trabalho deles foi publicado e é de código aberto, todos podem se beneficiar — esse é o poder da pesquisa aberta e do código aberto”, escreveu LeCun.
Durante a conferência de resultados do quarto trimestre, Zuckerberg disse que a Meta pretende investir dez vezes mais poder computacional para treinar o Llama-4 em comparação com o Llama-3.
A empresa pode reduzir seus gastos aplicando as técnicas da DeepSeek — ou manter os investimentos enquanto adota essas técnicas, resultando em um modelo ainda mais poderoso.
O futuro da IA pode não depender do modelo mais avançado
Por mais brilhante que seja o modelo de inferência da DeepSeek, a IA ainda tem um apetite voraz por duas coisas: poder computacional (data centers) e dados (para treinar e aprender).
Analistas do setor projetam que a demanda por GPUs aumentará 30% este ano, e os custos globais de computação para IA podem crescer 10 vezes nos próximos cinco anos.
Enquanto isso, modelos de IA de código aberto, como o da DeepSeek, estão se tornando tão avançados que muitos começam a questionar os preços premium cobrados por empresas de código fechado.
* Traduzido e editado com autorização do Decrypt.
- Você tem dúvidas de como montar uma carteira estratégica? O MB quer ajudar você com um portfólio pronto, com as principais criptomoedas relacionadas à inteligência artificial. Clique aqui para responder uma pesquisa e ajudar o MB nesta construção.