Alors qu’Alphabet regarde au-delà d’un bug de chatbot qui a aidé à effacer 100 milliards de dollars (environ 8,29 000 crores de roupies) de sa valeur marchande, un autre défi émerge de ses efforts pour ajouter l’intelligence artificielle générative à sa populaire recherche Google : le coût.

Des dirigeants du secteur technologique discutent de la manière d’exploiter l’IA comme ChatGPT tout en tenant compte des dépenses élevées. Le chatbot extrêmement populaire d’OpenAI, qui peut rédiger de la prose et répondre à des requêtes de recherche, a des coûts informatiques « époustouflants » de quelques centimes ou plus par conversation, a déclaré le directeur général de la startup, Sam Altman, sur Twitter.

Dans une interview, le président d’Alphabet, John Hennessy, a déclaré à Reuters qu’avoir un échange avec l’IA connu comme un grand modèle de langage coûte probablement 10 fois plus qu’une recherche par mot-clé standard, bien qu’un réglage fin aidera à réduire les dépenses rapidement.

Même avec les revenus des annonces de recherche potentielles basées sur le chat, la technologie pourrait contribuer au résultat net d’Alphabet, basé à Mountain View, en Californie, avec plusieurs milliards de dollars de coûts supplémentaires, ont déclaré les analystes. Son revenu net était de près de 60 milliards de dollars (environ Rs. 49,75,00 crore) en 2022.

Morgan Stanley a estimé que les 3,3 billions de requêtes de recherche de Google l’année dernière coûtaient environ un cinquième de cent chacune, un nombre cela augmenterait en fonction de la quantité de texte que l’IA doit générer. Google, par exemple, pourrait faire face à une augmentation des dépenses de 6 milliards de dollars (environ 49 742 crores de roupies) d’ici 2024 si l’IA de type ChatGPT devait traiter la moitié des requêtes qu’elle reçoit avec des réponses de 50 mots, selon les analystes. Il est peu probable que Google ait besoin d’un chatbot pour gérer les recherches de navigation sur des sites comme Wikipédia.

D’autres sont arrivés à une facture similaire de différentes manières. Par exemple, SemiAnalysis, une société de recherche et de conseil axée sur la technologie des puces, a déclaré que l’ajout d’une IA de type ChatGPT à la recherche pourrait coûter à Alphabet 3 milliards de dollars (environ 24 870 crores de roupies), un montant limité par les puces internes de Google appelées Tensor Processing Units, ou TPU, ainsi que d’autres optimisations.

Ce qui rend cette forme d’IA plus coûteuse que la recherche conventionnelle, c’est la puissance de calcul impliquée. Une telle IA dépend de milliards de dollars de puces, un coût qui doit être étalé sur leur durée de vie utile de plusieurs années, ont déclaré les analystes. L’électricité ajoute également des coûts et de la pression aux entreprises ayant des objectifs d’empreinte carbone.

Le processus de traitement des requêtes de recherche alimentées par l’IA est connu sous le nom d'”inférence”, dans lequel un”réseau de neurones”s’inspire vaguement du cerveau humain. la biologie déduit la réponse à une question d’une formation préalable.

Dans une recherche traditionnelle, en revanche, les robots d’exploration de Google ont scanné Internet pour compiler un index d’informations. Lorsqu’un utilisateur tape une requête, Google propose les réponses les plus pertinentes stockées dans l’index.

Hennessy d’Alphabet a déclaré à Reuters :”Ce sont les coûts d’inférence que vous devez réduire”, qualifiant cela”d’un problème de quelques années chez pire.”

Alphabet est sous pression pour relever le défi malgré les dépenses. Plus tôt ce mois-ci, son rival Microsoft a organisé un événement très médiatisé à son siège de Redmond, dans l’État de Washington, pour montrer son intention d’intégrer la technologie de chat IA dans son moteur de recherche Bing, les principaux dirigeants visant la part de marché de recherche de Google de 91%, par Similarweb. estimation.

Un jour plus tard, Alphabet parlait de son intention d’améliorer son moteur de recherche, mais une vidéo promotionnelle pour son chatbot IA Bard montrait que le système répondait à une question de manière inexacte, fomentant une baisse boursière qui lui a fait perdre 100 milliards de dollars. valeur marchande.

Microsoft a ensuite fait l’objet d’un examen minutieux lorsque son IA aurait proféré des menaces ou déclaré aimer tester les utilisateurs, ce qui a incité l’entreprise à limiter les longues sessions de chat qui, selon elle,”provoquaient”des réponses involontaires.

La directrice financière de Microsoft, Amy Hood, a déclaré aux analystes que l’augmentation du nombre d’utilisateurs et des revenus publicitaires l’emportait sur les dépenses alors que le nouveau Bing était déployé auprès de millions de consommateurs.”C’est une marge brute supplémentaire pour nous, même au prix du service dont nous parlons”, a-t-elle déclaré.

Et un autre concurrent de Google, le PDG du moteur de recherche You.com, Richard Socher, a ajouté un L’expérience de chat IA ainsi que les applications pour les graphiques, les vidéos et autres technologies génératives ont augmenté les dépenses entre 30 et 50 %.”La technologie devient moins chère à grande échelle et au fil du temps”, a-t-il déclaré.

Une source proche de Google a averti qu’il était trop tôt pour déterminer exactement combien les chatbots pourraient coûter, car l’efficacité et l’utilisation varient considérablement en fonction de la technologie impliquée, et l’IA alimente déjà des produits comme la recherche.

Pourtant, payer la facture est l’une des deux principales raisons pour lesquelles les géants de la recherche et des médias sociaux avec des milliards d’utilisateurs n’ont pas déployé un chatbot IA du jour au lendemain, a déclaré Paul Daugherty, Accenture. directeur de la technologie.

“Le premier est la précision, et le second est que vous devez faire évoluer cela de la bonne manière”, a-t-il déclaré.

Faire fonctionner les mathématiques

Pendant des années, les chercheurs d’Alphabet et d’ailleurs ont étudié comment former et exécuter de grands modèles de langage à moindre coût.

Les modèles plus grands nécessitent plus de puces pour l’inférence et coûtent donc plus cher. L’IA qui éblouit les consommateurs pour son autorité humaine a gonflé en taille, atteignant 175 milliards de soi-disant paramètres, ou différentes valeurs que l’algorithme prend en compte, pour le modèle OpenAI mis à jour dans ChatGPT. Le coût varie également en fonction de la longueur de la requête d’un utilisateur, mesurée en”jetons”ou en morceaux de mots.

Un cadre supérieur de la technologie a déclaré à Reuters qu’une telle IA restait d’un coût prohibitif à mettre entre les mains de millions de consommateurs.

“Ces modèles sont très chers, et donc le prochain niveau d’invention va réduire le coût de la formation de ces modèles et de l’inférence afin que nous puissions l’utiliser dans chaque application”, a déclaré l’exécutif. sous couvert d’anonymat.

Pour l’instant, les informaticiens d’OpenAI ont découvert comment optimiser les coûts d’inférence grâce à un code complexe qui rend les puces plus efficaces, a déclaré une personne familière avec l’effort. Un porte-parole d’OpenAI n’a pas immédiatement commenté.

Un problème à plus long terme est de savoir comment réduire le nombre de paramètres dans un modèle d’IA 10 ou même 100 fois, sans perdre en précision.

“Comment éliminer (les paramètres) le plus efficacement, c’est encore une question ouverte”, a déclaré Naveen Rao, qui dirigeait auparavant les efforts de puces d’IA d’Intel Corp et travaille maintenant à réduire les coûts de calcul de l’IA grâce à sa startup MosaicML.

Dans entre-temps, certains ont envisagé de facturer l’accès, comme l’abonnement d’OpenAI à 20 $ (environ 1 660 roupies) par mois pour un meilleur service ChatGPT. Les experts en technologie ont également déclaré qu’une solution de contournement consiste à appliquer des modèles d’IA plus petits à des tâches plus simples, qu’Alphabet explore.

La société a déclaré ce mois-ci qu’une version”modèle plus petit”de sa technologie massive d’IA LaMDA alimentera son chatbot Bard, nécessitant”beaucoup moins de puissance de calcul, ce qui nous permet d’évoluer vers plus d’utilisateurs”.

Interrogé sur les chatbots comme ChatGPT et Bard, Hennessy a déclaré lors d’une conférence intitulée TechSurge la semaine dernière que des modèles plus ciblés, plutôt qu’un système faisant tout, aiderait à”maîtriser le coût”.

© Thomson Reuters 2023

Les liens d’affiliation peuvent être générés automatiquement-consultez notre déclaration d’éthique pour plus de détails.

Pour plus de détails sur les derniers lancements et actualités de Samsung, Xiaomi, Realme, OnePlus, Oppo et d’autres entreprises au Mobile World Congress de Barcelone, visitez notre hub MWC 2023.

By Henry Taylor

Je travaille en tant que développeur back-end. Certains d'entre vous m'ont peut-être vu à la conférence des développeurs. Dernièrement, j'ai travaillé sur un projet open source.