O fenômeno chinês de inteligência artificial DeepSeek revelou alguns números financeiros no sábado, dizendo que sua margem de lucro “teórica” poderia ser mais de cinco vezes maior que os custos, revelando uma camada de sigilo que envolve os modelos de negócios no setor de IA.
A startup de 20 meses que abalou o Vale do Silício com sua abordagem inovadora e barata para a construção de modelos de IA, disse no X que o custo de inferência de vendas dos modelos V3 e R1 durante um período de 24 horas no último dia de fevereiro colocou as margens de lucro em 545%.
Inferência se refere ao poder de computação, eletricidade, armazenamento de dados e outros recursos necessários para fazer os modelos de IA funcionarem em tempo real.
No entanto, a DeepSeek adicionou um aviso de isenção de responsabilidade em detalhes fornecidos no GitHub, dizendo que suas receitas reais são substancialmente menores por vários motivos, incluindo o fato de que apenas um pequeno conjunto de seus serviços é monetizado e oferece descontos durante os horários de menor movimento. Os custos também não incluem todas as despesas de P&D e treinamento para construir seus modelos.
Embora as margens de lucro impressionantes sejam hipotéticas, a revelação ocorre em um momento em que a lucratividade das startups de IA e seus modelos é um tema quente entre os investidores em tecnologia.
Empresas como a OpenAI Inc. e a Anthropic PBC estão experimentando vários modelos de receita, desde baseados em assinatura até cobrança por uso e coleta de taxas de licenciamento, enquanto correm para construir produtos de IA cada vez mais sofisticados. Mas os investidores estão questionando esses modelos de negócios e seu retorno sobre o investimento, abrindo um debate sobre a viabilidade de atingir a lucratividade em breve.
A startup sediada em Hangzhou disse no sábado no X que seu serviço online tinha uma “margem de lucro de custo de 545%” e deu uma visão geral de suas operações, incluindo como otimizou o poder de computação ao balancear a carga — ou seja, gerenciar o tráfego para que o trabalho seja distribuído uniformemente entre vários servidores e data centers. A DeepSeek disse que inovou para otimizar a quantidade de dados processados pelo modelo de IA em um determinado período de tempo e gerenciou a latência — o tempo de espera entre um usuário enviar uma consulta e receber a resposta.
Em uma série de medidas incomuns iniciadas no início desta semana, a startup, que adotou a IA de código aberto, surpreendeu muitos no setor ao compartilhar algumas inovações e dados importantes que sustentam seus modelos, em contraste com a abordagem proprietária de seus maiores rivais nos EUA, como a OpenAI.
Publicado originalmente pelo Yahoo!Finance em 01/03/2025
Por Saritha Rai