Enquanto a Alphabet olha para além de um problema de chatbot que ajudou a eliminar US$ 100 bilhões (aproximadamente Rs. 8,29.000 crore) de seu valor de mercado, outro desafio está surgindo de seus esforços para adicionar inteligência artificial generativa à sua popular Pesquisa do Google: o custo.

Executivos de todo o setor de tecnologia estão falando sobre como operar IA como o ChatGPT enquanto contabilizam as altas despesas. O extremamente popular chatbot da OpenAI, que pode redigir prosa e responder a consultas de pesquisa, tem custos de computação”de dar água na boca”de alguns ou mais centavos por conversa, disse o presidente-executivo da startup, Sam Altman, no Twitter.

Em uma entrevista, o presidente da Alphabet, John Hennessy, disse à Reuters que ter uma troca com IA conhecida como um grande modelo de linguagem provavelmente custa 10 vezes mais do que uma pesquisa de palavra-chave padrão, embora o ajuste fino ajude a reduzir a despesa rapidamente.

Mesmo com a receita de possíveis anúncios de busca baseados em bate-papo, a tecnologia pode contribuir para os resultados da Alphabet, com sede em Mountain View, Califórnia, com vários bilhões de dólares em custos extras, disseram analistas. Seu lucro líquido foi de quase US$ 60 bilhões (aproximadamente Rs. 49,75,00 crore) em 2022.

Morgan Stanley estimou que os 3,3 trilhões de consultas de pesquisa do Google no ano passado custaram cerca de um quinto de um centavo cada, um número isso aumentaria dependendo de quanto texto a IA deve gerar. O Google, por exemplo, poderia enfrentar um aumento de US$ 6 bilhões (cerca de Rs. 49.742 crore) em despesas até 2024 se a IA do tipo ChatGPT lidasse com metade das consultas que recebe com respostas de 50 palavras, projetaram analistas. É improvável que o Google precise de um chatbot para lidar com pesquisas de navegação em sites como a Wikipédia.

Outros chegaram a um projeto de lei semelhante de maneiras diferentes. Por exemplo, a SemiAnalysis, uma empresa de pesquisa e consultoria focada em tecnologia de chips, disse que adicionar IA no estilo ChatGPT à pesquisa poderia custar à Alphabet US$ 3 bilhões (aproximadamente Rs. 24.870 crore), uma quantia limitada pelos chips internos do Google chamados Tensor Processing Units, ou TPUs, juntamente com outras otimizações.

O que torna essa forma de IA mais cara do que a pesquisa convencional é o poder de computação envolvido. Essa IA depende de bilhões de dólares em chips, um custo que deve ser distribuído ao longo de sua vida útil de vários anos, disseram analistas. Da mesma forma, a eletricidade adiciona custos e pressão às empresas com metas de pegada de carbono.

O processo de manipulação de consultas de pesquisa alimentadas por IA é conhecido como”inferência”, no qual uma”rede neural”vagamente modelada no cérebro humano a biologia infere a resposta a uma pergunta de um treinamento anterior.

Em uma pesquisa tradicional, ao contrário, os rastreadores da web do Google vasculharam a internet para compilar um índice de informações. Quando um usuário digita uma consulta, o Google oferece as respostas mais relevantes armazenadas no índice.

Hennessy, da Alphabet, disse à Reuters:”É preciso reduzir os custos de inferência”, chamando isso de”um problema de alguns anos em pior.”

A Alphabet está enfrentando pressão para aceitar o desafio, apesar das despesas. No início deste mês, sua rival Microsoft realizou um evento de alto nível em sua sede em Redmond, Washington, para mostrar os planos de incorporar a tecnologia de bate-papo AI em seu mecanismo de busca Bing, com altos executivos visando a participação de mercado de busca do Google de 91 por cento, por Similarweb’s estimativa.

Um dia depois, a Alphabet falou sobre planos para melhorar seu mecanismo de busca, mas um vídeo promocional para seu chatbot AI Bard mostrou o sistema respondendo a uma pergunta de forma imprecisa, fomentando uma queda de ações que eliminou US$ 100 bilhões de seu valor de mercado.

Mais tarde, a Microsoft atraiu seu próprio escrutínio quando sua IA supostamente fez ameaças ou declarou amor para testar usuários, levando a empresa a limitar longas sessões de bate-papo que disse”provocar”respostas não intencionais.

A diretora financeira da Microsoft, Amy Hood, disse a analistas que a vantagem de ganhar usuários e receita de publicidade superou as despesas com o lançamento do novo Bing para milhões de consumidores.”Isso representa uma margem bruta incremental para nós, mesmo com o custo de atendimento que estamos discutindo”, disse ela.

E outro concorrente do Google, CEO do mecanismo de busca You.com Richard Socher, disse acrescentando um A experiência de bate-papo com IA, bem como aplicativos para gráficos, vídeos e outras tecnologias generativas, aumentaram as despesas entre 30% e 50%.”A tecnologia fica mais barata em escala e com o tempo”, disse ele.

Uma fonte próxima ao Google alertou que é cedo para definir exatamente quanto os chatbots podem custar porque a eficiência e o uso variam muito, dependendo da tecnologia envolvida. e a IA já capacita produtos como a pesquisa.

Ainda assim, pagar a conta é uma das duas principais razões pelas quais os gigantes da pesquisa e da mídia social com bilhões de usuários não lançaram um chatbot de IA da noite para o dia, disse Paul Daugherty, da Accenture diretor de tecnologia.

“Um é a precisão, e o segundo é que você precisa dimensionar isso da maneira certa”, disse ele.

Fazendo a matemática funcionar

Durante anos, pesquisadores da Alphabet e de outros lugares estudaram como treinar e executar grandes modelos de linguagem de forma mais barata.

Modelos maiores exigem mais chips para inferência e, portanto, custam mais. A IA que deslumbra os consumidores por sua autoridade semelhante à humana aumentou de tamanho, atingindo 175 bilhões dos chamados parâmetros, ou valores diferentes que o algoritmo leva em conta, para o modelo OpenAI atualizado no ChatGPT. O custo também varia de acordo com a duração da consulta de um usuário, medida em”tokens”ou pedaços de palavras.

Um executivo sênior de tecnologia disse à Reuters que esse tipo de IA permaneceu com custo proibitivo para colocar nas mãos de milhões de consumidores.

“Esses modelos são muito caros e, portanto, o próximo nível de invenção será reduzir o custo de treinamento desses modelos e inferência para que possamos usá-los em todas as aplicações”, disse o executivo sob condição de anonimato.

Por enquanto, os cientistas da computação dentro da OpenAI descobriram como otimizar os custos de inferência por meio de um código complexo que faz com que os chips funcionem com mais eficiência, disse uma pessoa familiarizada com o esforço. Um porta-voz da OpenAI não comentou imediatamente.

Uma questão de longo prazo é como reduzir o número de parâmetros em um modelo de IA 10 ou até 100 vezes, sem perder a precisão.

“Como você seleciona (os parâmetros) de forma mais eficaz, isso ainda é uma questão em aberto”, disse Naveen Rao, que anteriormente dirigia os esforços de chip de IA da Intel Corp e agora trabalha para reduzir os custos de computação de IA por meio de sua startup MosaicML.

Em Enquanto isso, alguns consideraram cobrar pelo acesso, como a assinatura mensal de $ 20 da OpenAI (cerca de Rs. 1.660) para um melhor serviço ChatGPT. Especialistas em tecnologia também disseram que uma solução alternativa é aplicar modelos de IA menores a tarefas mais simples, que a Alphabet está explorando.

A empresa disse este mês que uma versão de”modelo menor”de sua enorme tecnologia de IA LaMDA alimentará seu chatbot Bard, exigindo”significativamente menos poder de computação, permitindo-nos escalar para mais usuários”. tudo, ajudaria a”domar o custo”.

© Thomson Reuters 2023

Links de afiliados podem ser gerados automaticamente-consulte nossa declaração de ética para obter detalhes.

Para obter detalhes sobre os últimos lançamentos e notícias da Samsung, Xiaomi, Realme, OnePlus, Oppo e outras empresas no Mobile World Congress em Barcelona, ​​visite nosso hub MWC 2023.

By Kaitlynn Clay

Eu trabalho como especialista em UX. Estou interessado em web design e análise de comportamento do usuário. Nos meus dias de folga, sempre visito o museu de arte.