O fenômeno chinês da inteligência artificial, DeepSeek, revelou alguns números financeiros neste sábado (1º), dizendo que sua margem de lucro "teórica" poderia ser mais de cinco vezes os custos, desvendando uma camada do segredo que envolve os modelos de negócios na indústria de IA.
A startup de 20 meses que abalou o Vale do Silício com sua abordagem inovadora e econômica para construir modelos de IA, disse no X que o custo de inferência de seus modelos V3 e R1 em relação às vendas durante um período de 24 horas no último dia de fevereiro colocou as margens de lucro em 545%.
Inferência refere-se ao poder de computação, eletricidade, armazenamento de dados e outros recursos necessários para fazer os modelos de IA funcionarem em tempo real.
No entanto, a DeepSeek acrescentou uma ressalva nos detalhes fornecidos no GitHub, dizendo que suas receitas reais são substancialmente menores por várias razões, incluindo o fato de que apenas um pequeno conjunto de seus serviços é monetizado e oferece descontos durante as horas de menor movimento. Além disso, os custos não incluem todas as despesas de P&D e treinamento para construir seus modelos.
Embora as margens de lucro impressionantes sejam, portanto, hipotéticas, a revelação surge em um momento em que a lucratividade das startups de IA e seus modelos é um tema quente entre os investidores em tecnologia.
Folha Mercado
Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.
Empresas como OpenAI Inc. e Anthropic PBC estão experimentando vários modelos de receita, desde baseados em assinatura até cobrança por uso e coleta de taxas de licenciamento, enquanto correm para construir produtos de IA cada vez mais sofisticados. Mas os investidores estão questionando esses modelos de negócios e seu retorno sobre o investimento, abrindo um debate sobre a viabilidade de alcançar a lucratividade em breve.
A startup com sede em Hangzhou disse neste sábado no X que seu serviço online teve uma "margem de lucro de custo de 545%" e deu uma visão geral de suas operações, incluindo como otimizou o poder de computação equilibrando a carga —ou seja, gerenciando o tráfego para que o trabalho seja distribuído uniformemente entre vários servidores e centros de dados.
A DeepSeek disse que inovou para otimizar a quantidade de dados processados pelo modelo de IA em um determinado período de tempo e gerenciou a latência —o tempo de espera entre um usuário enviar uma consulta e receber a resposta.
Em uma série de passos incomuns que começaram no início desta semana, a startup, que defende a IA de código aberto, surpreendeu muitos na indústria ao compartilhar algumas inovações e dados fundamentais de seus modelos, em contraste com a abordagem proprietária de seus maiores rivais dos EUA, como a OpenAI.