Heute erhält die breite Öffentlichkeit Zugang zu Bard, einem frühen Experiment, das die Zusammenarbeit mit generativer KI ermöglicht. Dies folgt auf die Ankündigung von Google letzte Woche, dass es weiterhin KI-Erlebnisse bereitstellen wird, von denen Menschen, Unternehmen und Gemeinschaften profitieren.
Bard behauptet, die Produktivität zu steigern, Ideen zu beschleunigen und Neugier zu wecken. Sie können Bard um Tipps bitten, die Ihnen helfen, Ihre Ziele zu erreichen, wie z. B. mehr zu lesen, einen Trainingsplan zu planen, eine Reise zu planen, komplexe Themen in einfachen Worten zu erklären oder einen Blogbeitrag zu verfassen, der Sie inspiriert. Bisher hat Google viel aus dem Testen von Bard gelernt. Aber jetzt ist es Zeit für mehr öffentliche Tests.
Bard basiert auf dem Research Large Language Model (LLM), genauer gesagt einer Version von LaMDA und wird im Laufe der Zeit mit neueren und leistungsstärkeren Modellen angepasst. Wenn er dazu aufgefordert wird, wählt Bard ein Wort nach dem anderen aus den möglichen nächsten Wörtern aus, um eine Antwort zu generieren. Da diese Technologie noch in den Kinderschuhen steckt, ist sie nicht perfekt. Beispielsweise kann es in Ihren Ergebnissen erscheinen, weil es aus verschiedenen Informationen lernt, die Vorurteile und Stereotypen aus der realen Welt widerspiegeln. Es kann auch ungenaue, irreführende oder falsche Informationen liefern. Als Bard zum Beispiel gebeten wurde, eine einfache Zimmerpflanze vorzuschlagen, hatte er den falschen wissenschaftlichen Namen, aber andere Dinge richtig.
Wenn Sie Bard verwenden, haben Sie oft mehrere verschiedene Entwürfe zur Auswahl, sodass Sie die Wahl haben Wählen Sie den besten Ausgangspunkt für Sie. Wenn Ihnen also die erste Antwort nicht gefällt, können Sie Ihre Frage jederzeit kuratieren oder einfach noch einmal stellen, um etwas zu bekommen, das Ihnen den kreativen Funken geben könnte, den wir alle brauchen, wenn wir in einer Sackgasse stecken.
Die Arbeit bei Bard baut auf den KI-Prinzipien bei Google auf, mit einem kontinuierlichen Fokus auf Qualität und Sicherheit. Sie nutzen menschliches Feedback und Bewertungen, um ihr System zu verbessern, und sie haben auch eingebaute Leitplanken wie die Begrenzung von Interaktionen, damit die Dinge auf Kurs bleiben. So können wir sicher sein, dass am anderen Ende zumindest jemand Echtes ist … zumindest vorerst.
Sie können sich unter https://bard.google.com/