KI-Dienste sind mehr als ein Trend, sie sind ein Phänomen, und jedes Technologieunternehmen möchte aktiv werden. Microsoft ist keine Ausnahme; das Unternehmen hat gerade bekannt gegeben, dass sein Azure OpenAI-Dienst jetzt allgemein verfügbar ist und einem weitaus breiteren Publikum Zugang gewährt.

Microsoft drängt auf Azure als „den besten Ort, um KI-Workloads zu erstellen“, und ein Teil davon beinhaltet Nutzung der Leistungsfähigkeit von GPT-3-gestützter natürlicher Sprache. Am Horizont ist ChatGPT, das als „eine fein abgestimmte Version von GPT-3.5, die trainiert wurde und Inferenzen auf der Azure-KI-Infrastruktur ausführt“ beschrieben wird.

Siehe auch:

Azure OpenAI von Microsoft Der Service ist erst etwas mehr als ein Jahr alt und wurde im November 2021 eingeführt, hat sich aber sprunghaft weiterentwickelt. Nachdem DALL-E 2 bereits auf die Plattform gebracht wurde, ist es wenig überraschend, dass das Unternehmen immer mehr KI-Modelle einbezieht.

Satya Nadella teilte die Neuigkeiten auf Twitter mit:

ChatGPT kommt bald zum Azure OpenAI Service, der jetzt allgemein verfügbar ist, da wir Kunden helfen, die fortschrittlichsten KI-Modelle der Welt auf ihre eigenen Geschäftsanforderungen anzuwenden. https://t.co/kQwydRWWnZ

– Satya Nadella (@satyanadella) 17. Januar 2023

Eric Boyd, Corporate Vice President of AI Platform, schreibt im Microsoft Azure-Blog: „ Große Sprachmodelle werden schnell zu einer wesentlichen Plattform für Menschen, um Innovationen zu entwickeln, KI zur Lösung großer Probleme anzuwenden und sich vorzustellen, was möglich ist. Heute freuen wir uns, die allgemeine Verfügbarkeit des Azure OpenAI-Dienstes als Teil des anhaltenden Engagements von Microsoft für die Demokratisierung der KI bekannt zu geben. und laufende Partnerschaft mit OpenAI”.

Er wird fortgesetzt:

Mit Azure OpenAI Service jetzt allgemein verfügbar , mehr Unternehmen können den Zugang zu den meisten a beantragen fortschrittlichste KI-Modelle der Welt – einschließlich GPT-3.5, Codex und DALL•E 2 – unterstützt durch die bewährten Funktionen der Enterprise-Klasse und die KI-optimierte Infrastruktur von Microsoft Azure, um hochmoderne Anwendungen zu erstellen. Kunden können in Kürze auch über den Azure OpenAI-Dienst auf ChatGPT zugreifen – eine optimierte Version von GPT-3.5, die trainiert wurde und Rückschlüsse auf die Azure-KI-Infrastruktur ausführt.

Die Das wachsende öffentliche Interesse an künstlicher Intelligenz und die Explosion zugänglicher Tools, die auf den freien Markt kommen, haben Bedenken darüber geschürt, wie die Technologie verwendet werden könnte – und ob solche Technologien den Menschen vollständig ersetzen könnten.

In seinem Blog The Red Hand Files, Sänger Nick Cave gab diese Woche eine vernichtende Reaktion zu einem von ChatGPT”geschriebenen”Song, der seinen Stil nachahmt. Er sagt, das Lied sei Bullshit, eine groteske Verhöhnung dessen, was es heißt, ein Mensch zu sein.

Cave schreibt:

Seit seiner Veröffentlichung im November letzten Jahres haben viele Menschen, die meisten von einer Art algorithmischer Ehrfurcht erfüllt, haben mir Songs”im Stil von Nick Cave”geschickt, die von ChatGPT erstellt wurden. Es gab Dutzende von ihnen. Es genügt zu sagen, dass ich nicht die gleiche Begeisterung für diese Technologie verspüre. Ich verstehe, dass ChatGPT noch in den Kinderschuhen steckt, aber vielleicht ist das der aufkommende Schrecken der KI – dass es für immer in den Kinderschuhen stecken wird, da es immer weiter gehen muss und die Richtung immer vorwärts, immer schneller ist. Es kann niemals rückgängig gemacht oder verlangsamt werden, da es uns vielleicht in eine utopische Zukunft oder in unsere totale Zerstörung führt. Wer kann was sagen? Nach diesem Song”im Stil von Nick Cave”zu urteilen, sieht es aber nicht gut aus. Die Apokalypse ist auf dem besten Weg. Dieser Song ist scheiße.

Während der Versuch, künstliche Intelligenz zu verwenden, um den Stil eines Künstlers nachzuäffen, nicht unbedingt als unverantwortlich abgestempelt werden würde, sagt Microsoft, dass es sich für”einen verantwortungsvollen Umgang mit KI”einsetzt.. Das Unternehmen erklärt:

Als Teil unseres Limited Access Framework müssen Entwickler den Zugriff beantragen und ihren beabsichtigten Anwendungsfall oder ihre beabsichtigte Anwendung beschreiben, bevor sie Zugriff auf den Dienst erhalten. Inhaltsfilter, die speziell dafür entwickelt wurden, missbräuchliche, hasserfüllte und anstößige Inhalte zu erkennen, überwachen ständig die Eingaben, die für den Dienst bereitgestellt werden, sowie die generierten Inhalte. Im Falle eines bestätigten Richtlinienverstoßes können wir den Entwickler bitten, unverzüglich Maßnahmen zu ergreifen, um weiteren Missbrauch zu verhindern.

Weitere Informationen finden Sie unter hier.

Bildnachweis: rokas91/depositphotos

By Henry Taylor

Ich arbeite als Backend-Entwickler. Einige von Ihnen haben mich vielleicht auf der Entwicklerkonferenz gesehen. In letzter Zeit arbeite ich an einem Open-Source-Projekt.