Apesar de defender a suspensão do treinamento em IA em todo o setor, Elon Musk deu início a um grande projeto de inteligência artificial no Twitter. A empresa já comprou aproximadamente 10.000 GPUs e recrutou talentos de IA da DeepMind para o projeto que envolve um modelo de linguagem grande (LLM), relata o Business Insider. Uma fonte familiarizada com o assunto afirmou que o projeto de IA de Musk ainda está em sua fase inicial.
No entanto, o Twitter supostamente gastou dezenas de milhões de dólares nessas GPUs de computação, apesar dos problemas financeiros contínuos do Twitter, que Musk descreve como uma ‘situação financeira instável’. Além de comprar hardware de GPU para seu projeto de IA generativa, o Twitter está contratando engenheiros adicionais. Até agora, a Nvidia lançou o sucessor do A100, suas GPUs de computação H100 que são várias vezes mais rápidas com a mesma potência.
O Twitter provavelmente usará o Hopper H100 da Nvidia ou hardware semelhante para seu projeto de IA, embora estejamos especulando aqui. Considerando que a empresa ainda não determinou para que seu projeto de IA será usado, é difícil estimar quantas GPUs Hopper ela pode precisar. Quando grandes empresas como o Twitter compram hardware, eles compram a preços especiais à medida que adquirem milhares de unidades. Enquanto isso, quando compradas separadamente de varejistas como a CDW, as placas H100 da Nvidia podem custar mais de US$ 10.000 por unidade, dando uma ideia de quanto a empresa pode ter gasto em hardware para sua iniciativa de IA.