Desde que ChatGPT encontrou a veia de inteligência artificial generativa, em menos de um ano uma grande parte do sector tecnológico lançou-se para prosseguir a nova corrida do ouro. Mas o espanto espalhado entre estudiosos e leigos dilui-se agora, depois do primeiro choque. E a adoção massiva do OpenAI pelos usuários é apenas um bom começo, longe de sua consolidação definitiva como líder de mercado.
Para reforçar o seu domínio em serviços generativos de IA, a OpenAI tem muitos desafios pela frente. Um dos mais básicos tem a ver com sua demonstração de resultados. Sendo uma startup tecnológica, espera-se que invista primeiro na adoção dos utilizadores e depois rentabilize a sua oferta e, só mais tarde, se preocupe com a eficiência de custos. No entanto, parece que a empresa está apressando os passos. Este ano eles tiveram o cuidado de aumentar seu faturamento com ChatGPT Pluse já está considerando como economizar custos para aliviar suas grandes despesas operacionais.
Pouco depois de lançar o ChatGPT 3.5, o CEO da OpenAI, Sam Altman reconhecido publicamente que o custo de operação do serviço era sangrento (ele usou a expressão inglesa “eye-watering”). Naquela época, o chatbot mal havia nascido. Alguns meses depois, estimou-se que a IA generativa seria um grande negócio para a startup. US$ 700.000 em gastos diáriosalgo mais do que 20 milhões por mês. A isso teríamos que somar os custos do Dall-E e de outras ferramentas, que também consomem recursos computacionais.
Uma das fórmulas que a empresa consideraria para reduzir suas despesas operacionais, segundo uma nota da Reuters citando fontes internas da OpenAI, seria criar seus próprios chips. Com eles você poderá otimizar o funcionamento do seu software e aumentar a eficiência energética. É uma estratégia que muitas grandes empresas de tecnologia adotaram nos últimos anos.
Altman já avisou que sua empresa poderia ser a “startup com maior capital intensivo da história do Vale do Silício”. Ela falou em referência ao desenvolvimento futuro da inteligência artificial geral (aquele capaz de realizar qualquer tarefa intelectual atribuível a um ser humano), que poderia custar 100 bilhões de dólares. Mas não é necessário entrar (por enquanto) no reino da ficção científica para que as despesas disparem.
A OpenAI precisa evoluir constantemente seus produtos e lançar novas atualizações para permanecer na crista da inovação. Tudo isto implica um investimento continuado. Quando ir a Altman foi perguntado em um evento do MIT Se o treinamento do recente ChatGPT 4 tivesse custado 100 milhões de dólares (várias vezes mais que o ChatGPT 3), ele respondeu que havia assumido uma despesa maior. Uma resposta que não sugere se custou um pouco mais que esse valor ou muito mais. A startup agora está trabalhando na versão 4.5 e Uma das razões pelas quais não foi lançada directamente em 5 seriam os custos. Além disso, a sua ambição de abranger cada vez mais áreas de IA generativa implica novas despesas.
De acordo com A informação, a receita da OpenAI teria aumentado exponencial e inesperadamente. A empresa pretendia atingir 1.000 milhões de faturação em 2024 e poderá alcançá-lo este ano. Com esses números, suas finanças devem estar saudáveis. Mas as despesas operacionais e de pessoal devem ser subtraídas da avalanche de receitas. Em 2022, com menor consumo de recursos, embora com elevado custo de desenvolvimento, teriam ocorrido perdas no valor de 540 milhões de dólares, também de acordo com a informação citando fontes familiarizadas com as finanças da empresa.
A necessidade de capital para competir em um mercado acirrado
A relação da OpenAI com a Microsoft resolveria a questão económica, já que a gigante tecnológica teria empenhado 10 mil milhões de dólares só este ano, aos quais devem ser adicionados mais 3 mil milhões. Mas o acordo entre ambos, como a Fortuna foi capaz de reconstruí-lo, estrangula as margens da startup, que seria obrigada a pagar 75% do seu lucro ao parceiro até recuperar o investimento. Quando isso acontecer, terá de pagar 49% dos lucros até atingir uns colossais 92 mil milhões de dólares.
A estrutura financeira da OpenAI é complexa. Começou como uma entidade sem fins lucrativos com a missão de desenvolver inteligência artificial geral (AGI). Mas Em 2019 criou uma organização empresarial dentro da sua estrutura, e ele fez isso com uma particularidade. Em vez de receber ações da empresa, os investidores recebem o direito de embolsar uma parte dos seus benefícios futuros. Idealmente, isso significa que eles não têm tanta influência nas decisões da empresa. Na verdade, a startup indica que poderia reinvestir todos os lucros até atingir o seu objetivo de chegar ao IAG.
Você pode pensar que a OpenAI poderia passar toda a sua existência sem distribuir um único dólar aos seus investidores, sempre reinvestindo o que ganha. Mas esta fórmula é uma faca de dois gumes. Se as despesas aumentarem, uma das maneiras pelas quais as startups podem lidar com elas é arrecadando novas rodadas. E se a OpenAI não declarar lucros e, portanto, não distribuir dinheiro entre os seus investidores, irá dissuadir aqueles que ainda estão por vir.
Otimizar custos pode parecer um gesto de boa vontade para os investidores e, ao mesmo tempo, ajudaria a OpenAI a tornar os seus produtos mais sustentáveis do ponto de vista económico. É preciso ter em conta que a sua concorrência são algumas das grandes empresas tecnológicas, que podem injetar uma torrente de capital nos seus projetos. Google lançou Bard este ano e recentemente teria disponibilizado o Gemini para alguns desenvolvedorescapaz de gerar textos, imagens e trabalhar com linguagens de programação.
A Amazon também entrou na corrida da IA generativa. Investiu US$ 1,25 bilhão na Anthropic, cujo serviço Claude é um rival direto do ChatGPT. O número aumentará para 4 mil milhões se certas condições forem cumpridas. Mas ela não é a única que apoia esta startup. O próprio Google participou de uma rodada que chegou a 450 milhões e planeja injetar dinheiro novamente em um novo que chegaria a 2.000 milhões.
Os números são vertiginosos. No entanto, eles não são a única coisa importante. Assim como o OpenAI foi integrado à oferta de serviços em nuvem da Microsoft (Azure), as ferramentas Anthropic agora estão disponíveis na AWS, o serviço nuvem da Amazônia. Assim, de repente, o rival do ChatGPT ganha acesso a um enorme volume de potenciais clientes. Ao mesmo tempo, alguns vazamentos indicam que A Apple trabalha em sua própria IA generativa, Ajaxchamados para trabalhar em todos os seus softwares, assim como farão Meta AI e Emu (para imagens) na família de aplicativos Mark Zuckerberg.
Fabrique seus próprios chips como uma saída natural
A informação da Reuters de que a OpenAI consideraria criar os seus próprios chips enquadra-se neste quadro de concorrência. Eles seriam otimizados para seus serviços e evitariam a dependência tecnológica da Nvidia. O projeto se vincularia à tendência das grandes empresas de tecnologia, que buscam projetar seus próprios processadores para obter o máximo desempenho em suas operações.
Com seu próprio design você pode conseguir chips com maior eficiência energia, o que reduz os custos de servidores em data centers. Quando a Amazon lançou seu Inferentia Para Alexa, anunciaram que reduziram o custo do assistente em 30% e sua latência em 25%. O benefício torna-se ainda mais relevante em cargas de trabalho muito intensivas, como a inteligência artificial generativa. Daí que Google já apresentou um novo processador nesta linhaenquanto que Meta já está trabalhando em seu.
Tudo indica que para a OpenAI ter chips próprios é um passo lógico. Você poderia economizar algumas das enormes despesas de serviços operacionais como ChatGPT e melhorar a competitividade do seu software, em termos de poder computacional.
A parte difícil é começar a criar o primeiro chip. É necessário pessoal especializado, composto por engenheiros listados no mercado, estabelecer relacionamento com fornecedores de componentes, atender à logística e, principalmente, ao capital a ser gasto. De acordo com a estimativa da consultoria Digits to Dollars, fabricar um processador do zero poderia custar US$ 270 milhões. Mas o pedido mínimo de GPUs que o mercado permite chega a 3 bilhões de dólares.
Além disso, qualquer acordo de fabricação com terceiros apresenta riscos neste momento. Quase toda a cadeia de abastecimento tem as suas raízes, de uma forma ou de outra, na China ou em Taiwan, dois pólos de um conflito geopolítico tripartido, com os Estados Unidos, que abala o setor de fabricação de eletrônicos. A instabilidade é acentuada pelos problemas de abastecimento enfrentados pela indústria de semicondutores, que são agravados pelos chips de IA. Como o TSMC taiwanês apontou, maior empresa de chips do mundo, o congestionamento nos processadores destinados à IA levará cerca de 18 meses para ser corrigido. Ele sabe bem do que está falando. Suas fábricas são as únicas que fabricam H100 e A100 da Nvidia, justamente aquelas que o ChatGPT utiliza para funcionar.
Assim, o design dos nossos próprios chips pode tornar-se uma odisseia de desenvolvimento tecnológico. Mas as vantagens competitivas que trazem são tentadoras para a OpenAI, que parece ter todas as cartas nas mãos para empreender uma iniciativa que não está isenta de dificuldades.
Imagem | Zac Wolff
Em Xataka | A OpenAI nasceu sem fins lucrativos, mas criou o ChatGPT, um negócio extremamente lucrativo. É conflitante
Reescreva o texto para BR e mantenha a HTML tags