No início do ano passado, a OpenAI arrecadou US$ 10 bilhões (R$ 60 bilhões). Apenas 18 meses depois, a empresa já havia consumido a maior parte desse dinheiro. Então, arrecadou mais US$ 6,6 bilhões (cerca de R$ 40 bilhões) e organizou um empréstimo adicional de US$ 4 bilhões (R$ 24 bilhões).
Mas em cerca de 18 meses a partir de agora, a OpenAI precisará de outra injeção de capital porque a startup de San Francisco está gastando mais de US$ 5,4 bilhões por ano (mais de R$ 32 bilhões). E até 2029, a OpenAI espera gastar US$ 37,5 bilhões por ano (R$ 225 bilhões).
As despesas crescentes da OpenAI são a principal razão pela qual a estrutura corporativa da empresa, que começou como um laboratório de pesquisa sem fins lucrativos, pode em breve mudar. A OpenAI deve arrecadar bilhões de dólares adicionais nos próximos anos, e seus executivos acreditam que será mais atraente para os investidores como uma empresa com fins lucrativos.
De muitas maneiras, a inteligência artificial inverteu a forma como a tecnologia computacional costumava ser criada. Durante décadas, engenheiros do Vale do Silício projetaram novas tecnologias um pequeno passo de cada vez. Ao construir aplicativos de mídia social como o Facebook ou sites de compras como a Amazon, eles escreviam linha após linha de código de computador. Com cada nova linha, definiam cuidadosamente o que o aplicativo faria.
Mas quando as empresas constroem sistemas de IA, elas começam em grande escala: alimentam esses sistemas com enormes quantidades de dados. Quanto mais dados as empresas alimentam nesses sistemas, mais poderosos eles se tornam. Assim como um estudante aprende mais ao ler mais livros, um sistema de IA pode melhorar suas habilidades ao ingerir maiores quantidades de dados. Chatbots como o ChatGPT aprendem suas habilidades ingerindo praticamente todo o texto em inglês disponível na internet.
Isso requer quantidades cada vez maiores de poder computacional de gigantescos centros de dados. Dentro desses centros de dados estão computadores equipados com milhares de chips de computador especializados chamados unidades de processamento gráfico, ou GPUs, que podem custar mais de US$ 30 mil cada (R$ 180 mil).
O custo é ainda mais elevado porque os chips, centros de dados e eletricidade necessários para realizar esse trabalho digital estão em falta.
Folha Mercado
Receba no seu email o que de mais importante acontece na economia; aberta para não assinantes.
Sean Holzknecht, CEO da Colovore, uma operadora de centros de dados cujas instalações estão adotando chips especializados usados para construir IA, disse que esse novo tipo de instalação computacional custa de 10 a 20 vezes mais do que um centro de dados tradicional.
Esses chips passam meses realizando os cálculos matemáticos que permitem ao ChatGPT identificar padrões em todos esses dados. O custo de cada "execução de treinamento" pode chegar a centenas de milhões de dólares.
"Imagine precisar ler a internet repetidamente", disse David Katz, sócio da Radical Ventures, uma firma de capital de risco que investiu em startups de IA. "Esta é a tarefa computacionalmente mais intensiva que o mundo já viu."
Google, Microsoft, OpenAI e outros estão agora trabalhando para expandir o conjunto global de centros de dados necessários para construir suas tecnologias. Eles planejam gastar centenas de bilhões para aumentar o número de chips de computador fabricados a cada ano, instalá-los em instalações ao redor do mundo e garantir a eletricidade necessária para operá-los.
Esses custos são particularmente onerosos quando empresas como OpenAI, Google e Anthropic oferecem chats aos consumidores sem cobrar nada. Algumas delas estão cobrando dos consumidores cerca de US$ 20 (R$ 120) por mês para usar suas tecnologias mais poderosas —e mesmo isso pode não cobrir o custo de entrega.
(O New York Times processou a OpenAI e sua parceira, Microsoft, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA. As duas empresas negaram as alegações do processo).
Desde a construção da versão inicial do ChatGPT, a OpenAI tem melhorado constantemente seu chatbot, alimentando-o com quantidades cada vez maiores de dados, incluindo imagens e sons, além de texto.
A empresa recentemente revelou uma versão do ChatGPT que "raciocina" através de problemas de matemática, ciência e programação de computadores. Ela construiu essa tecnologia usando uma técnica chamada aprendizado por reforço.
Por meio desse processo, o sistema aprende comportamentos adicionais ao longo de meses de tentativa e erro. Tentando resolver vários problemas matemáticos, por exemplo, ele pode aprender quais métodos levam à resposta correta e quais não.
Quando as pessoas usam esse sistema, ele "pensa" antes de responder. Quando alguém faz uma pergunta, ele explora muitas possibilidades antes de entregar uma resposta.
A OpenAI vê essa tecnologia, chamada OpenAI o1, como o futuro de seus negócios. E isso requer ainda mais poder computacional. É por isso que a empresa espera que seus custos computacionais cresçam sete vezes até 2029, enquanto persegue o sonho da inteligência geral artificial —uma máquina que pode fazer tanto quanto o cérebro humano, ou mais.
"Se você está tentando perseguir a ficção científica", disse Nick Frosst, ex-pesquisador do Google e cofundador da Cohere, uma startup que constrói tecnologia semelhante, "os custos continuarão subindo."