Während Alphabet an einem Chatbot-Fehler vorbeischaut, der dazu beigetragen hat, seinen Marktwert um 100 Milliarden $ (ungefähr 8,29 000 Rs) zu reduzieren, taucht eine weitere Herausforderung aus seinen Bemühungen auf, seine beliebte Google-Suche um generative künstliche Intelligenz zu erweitern: die Kosten.

Führungskräfte aus dem gesamten Technologiesektor sprechen darüber, wie man KI wie ChatGPT betreibt und dabei die hohen Kosten berücksichtigt. Der überaus beliebte Chatbot von OpenAI, der Prosa verfassen und Suchanfragen beantworten kann, hat „erschreckende“ Rechenkosten von ein paar oder mehr Cent pro Gespräch, sagte Sam Altman, Chief Executive des Startups, auf Twitter.

In einem Interview sagte der Vorsitzende von Alphabet, John Hennessy, gegenüber Reuters, dass ein Austausch mit KI, bekannt als großes Sprachmodell, wahrscheinlich zehnmal mehr kostet als eine Standard-Schlüsselwortsuche, obwohl eine Feinabstimmung dazu beitragen wird, die Kosten schnell zu senken.

Selbst mit Einnahmen aus potenziellen Chat-basierten Suchanzeigen könnte die Technologie mit zusätzlichen Kosten in Höhe von mehreren Milliarden Dollar in das Endergebnis von Alphabet aus Mountain View, Kalifornien, einfließen, sagten Analysten. Sein Nettoeinkommen belief sich 2022 auf fast 60 Milliarden US-Dollar (rund 49,75 Milliarden Rupien).

Morgan Stanley schätzte, dass Googles 3,3 Billionen Suchanfragen im vergangenen Jahr jeweils etwa einen fünftel Cent gekostet haben, eine Zahl das würde sich erhöhen, je nachdem, wie viel Text die KI generieren muss. Google zum Beispiel könnte bis 2024 mit einem Kostenanstieg von 6 Milliarden US-Dollar (ca. Es ist unwahrscheinlich, dass Google einen Chatbot benötigt, um Navigationssuchvorgänge für Websites wie Wikipedia durchzuführen.

Andere kamen auf unterschiedliche Weise zu einer ähnlichen Rechnung. Zum Beispiel sagte SemiAnalysis, ein Forschungs-und Beratungsunternehmen mit Schwerpunkt auf Chiptechnologie, dass das Hinzufügen von KI im ChatGPT-Stil zur Suche Alphabet 3 Milliarden US-Dollar (ca. oder TPUs, zusammen mit anderen Optimierungen.

Was diese Form der KI teurer macht als die herkömmliche Suche, ist die damit verbundene Rechenleistung. Eine solche KI hängt von Milliarden von Dollar an Chips ab, Kosten, die über ihre Nutzungsdauer von mehreren Jahren verteilt werden müssen, sagten Analysten. Strom erhöht ebenfalls die Kosten und den Druck für Unternehmen mit CO2-Fußabdruck-Zielen.

Der Prozess der Verarbeitung von KI-gestützten Suchanfragen ist als „Inferenz“ bekannt, bei der ein „neuronales Netzwerk“ lose dem menschlichen Gehirn nachempfunden ist Biologie leitet die Antwort auf eine Frage aus vorherigem Training ab.

Bei einer traditionellen Suche hingegen haben die Web-Crawler von Google das Internet durchsucht, um einen Informationsindex zusammenzustellen. Wenn ein Nutzer eine Suchanfrage eingibt, liefert Google die relevantesten Antworten, die im Index gespeichert sind.

Hennessy von Alphabet sagte gegenüber Reuters: „Es sind die Inferenzkosten, die Sie senken müssen“, und nannte dies „ein Problem von zwei Jahren“. am schlimmsten.”

Alphabet steht unter Druck, die Herausforderung trotz der Kosten anzunehmen. Anfang dieses Monats veranstaltete sein Rivale Microsoft eine hochkarätige Veranstaltung in seinem Hauptsitz in Redmond, Washington, um Pläne zur Einbettung der KI-Chat-Technologie in seine Bing-Suchmaschine vorzustellen, wobei Top-Führungskräfte von Similarweb den Marktanteil von Google im Suchmarkt von 91 Prozent anvisieren Schätzung.

Einen Tag später sprach Alphabet über Pläne zur Verbesserung seiner Suchmaschine, aber ein Werbevideo für seinen KI-Chatbot Bard zeigte, dass das System eine Frage ungenau beantwortete, was zu einem Aktienrutsch führte, der 100 Milliarden US-Dollar an Wert einbüßte Marktwert.

Microsoft zog später selbst eine Prüfung ein, als seine KI Berichten zufolge Drohungen aussprach oder erklärte, Benutzer zu lieben, was das Unternehmen dazu veranlasste, lange Chat-Sitzungen zu begrenzen, die angeblich unbeabsichtigte Antworten”provozierten”.

Amy Hood, Chief Financial Officer von Microsoft, sagte Analysten, dass die Vorteile durch die Gewinnung von Benutzern und Werbeeinnahmen die Kosten überwiegen, wenn das neue Bing für Millionen von Verbrauchern eingeführt wird. „Das ist eine zusätzliche Bruttogewinnmarge für uns, selbst zu den Kosten für die Bereitstellung, über die wir sprechen“, sagte sie.

Und ein anderer Konkurrent von Google, CEO der Suchmaschine You.com, Richard Socher, fügte hinzu KI-Chat-Erfahrung sowie Anwendungen für Diagramme, Videos und andere generative Technologien erhöhten die Kosten zwischen 30 und 50 Prozent. „Technologie wird im Umfang und mit der Zeit billiger“, sagte er.

Eine Quelle in der Nähe von Google warnte davor, dass es noch früh sei, genau festzulegen, wie viel Chatbots kosten könnten, da Effizienz und Nutzung je nach verwendeter Technologie stark variieren. und KI treibt bereits Produkte wie die Suche an.

Dennoch ist das Bezahlen der Rechnung einer von zwei Hauptgründen, warum Such-und Social-Media-Giganten mit Milliarden von Nutzern nicht über Nacht einen KI-Chatbot eingeführt haben, sagte Paul Daugherty von Accenture Chief Technology Officer.

“Einer ist die Genauigkeit, und der zweite ist, dass Sie dies auf die richtige Weise skalieren müssen”, sagte er.

Damit die Mathematik funktioniert

Jahrelang haben Forscher bei Alphabet und anderswo untersucht, wie große Sprachmodelle kostengünstiger trainiert und betrieben werden können.

Größere Modelle erfordern mehr Chips für die Inferenz und kosten daher mehr. Die KI, die die Verbraucher für ihre menschenähnliche Autorität blendet, ist in der Größe explodiert und hat 175 Milliarden sogenannte Parameter oder verschiedene Werte, die der Algorithmus berücksichtigt, für das in ChatGPT aktualisierte Modell OpenAI erreicht. Die Kosten variieren auch mit der Länge der Abfrage eines Benutzers, gemessen in „Tokens“ oder Wortteilen.

Ein leitender Technologiemanager sagte gegenüber Reuters, dass eine solche KI für Millionen von Verbrauchern nach wie vor unerschwinglich sei.

“Diese Modelle sind sehr teuer, und daher wird die nächste Stufe der Erfindung darin bestehen, die Kosten sowohl für das Training dieser Modelle als auch für die Inferenz zu senken, damit wir sie in jeder Anwendung verwenden können”, sagte der Geschäftsführer unter der Bedingung der Anonymität.

Im Moment haben Informatiker innerhalb von OpenAI herausgefunden, wie man Inferenzkosten durch komplexen Code optimieren kann, der Chips effizienter laufen lässt, sagte eine mit den Bemühungen vertraute Person. Ein OpenAI-Sprecher äußerte sich nicht sofort.

Ein längerfristiges Problem besteht darin, die Anzahl der Parameter in einem KI-Modell um das 10-oder sogar 100-fache zu verringern, ohne an Genauigkeit zu verlieren.

“Wie Sie am effektivsten Parameter entfernen, das ist noch eine offene Frage”, sagte Naveen Rao, der früher die KI-Chip-Bemühungen von Intel Corp leitete und jetzt daran arbeitet, die KI-Rechenkosten durch sein Startup MosaicML zu senken.

In In der Zwischenzeit haben einige darüber nachgedacht, für den Zugang Gebühren zu erheben, wie z. B. das monatliche Abonnement von OpenAI für 20 US-Dollar (ca. Technologieexperten sagten auch, dass eine Problemumgehung darin besteht, kleinere KI-Modelle auf einfachere Aufgaben anzuwenden, was Alphabet untersucht.

Das Unternehmen sagte diesen Monat, dass eine „kleinere Modellversion“ seiner massiven LaMDA-KI-Technologie seinen Chatbot Bard antreiben wird. Erforderlich sei „deutlich weniger Rechenleistung, was es uns ermöglicht, auf mehr Benutzer zu skalieren.“

Nach Chatbots wie ChatGPT und Bard gefragt, sagte Hennessy letzte Woche auf einer Konferenz namens TechSurge, dass mehr fokussierte Modelle als ein System funktionieren alles, würde helfen,”die Kosten zu zähmen”.

© Thomson Reuters 2023

Affiliate-Links können automatisch generiert werden-siehe unsere Ethik-Erklärung für Einzelheiten.

Für Einzelheiten zu den neuesten Markteinführungen und Neuigkeiten von Samsung, Xiaomi, Realme, OnePlus, Oppo und anderen Unternehmen auf dem Mobile World Congress in Barcelona, ​​besuchen Sie unseren MWC 2023-Hub.

By Henry Taylor

Ich arbeite als Backend-Entwickler. Einige von Ihnen haben mich vielleicht auf der Entwicklerkonferenz gesehen. In letzter Zeit arbeite ich an einem Open-Source-Projekt.