ChatGPT-Schöpfer OpenAI arbeitet bereits an seiner künstlichen Intelligenz der nächsten Generation: GPT-4. GPT-4 ist ein leistungsfähigeres neuronales Netz, dessen Verständnisniveau Ligen über dem seiner Vorgänger liegt und so weit geht, Menschen dafür zu bezahlen, CAPTCHAs dafür zu lösen.
Nach der Veröffentlichung des 98-seitigen technischen Berichts von OpenAI über die Project haben mehrere KI-Entwickler Bedenken hinsichtlich des neuen Tools geäußert. Viele sind nicht nur besorgt über die Fähigkeiten der Technologie, sondern auch über die Zurückhaltung von OpenAI, seine Technologie zu erklären.
OpenAI, ein zuvor gemeinnütziges Unternehmen, hat bekannt gegeben, dass es keine Pläne hat, seine Technologie zu teilen. Das jüngste Papier zeigt, dass „die Wettbewerbslandschaft und die Sicherheitsimplikationen von Großmodellen wie GPT-4“ die Gründe für seine Zurückhaltung sind.
In einem Bericht von VentureBeat, CEO von Lightning AI William Falcon behauptete, dass die Geheimhaltung von OpenAI ein „schlechter Präzedenzfall“ für die Zukunft sei der KI-Forschung.
„[OpenAI] sagt im Grunde, es ist cool, mach einfach dein Ding, es ist uns egal“, sagte der KI-Leiter. „Also wirst du all diese Unternehmen haben, die werden keinen Anreiz mehr haben, Dinge Open-Source zu machen, den Leuten zu sagen, was sie tun.“
Falcon argumentierte, dass Closed-Source-KI-Projekte immer gefährlicher werden, insbesondere je weiter sie fortgeschritten sind. Ohne Wissen darüber, wie diese KI-Dienste funktionieren, gibt es keine Möglichkeit, sie richtig zu regulieren.
„Diese Modelle können sehr schnell supergefährlich werden“, fuhr Falcon fort. „[Das ist] nur wirklich schwer zu prüfen. Es ist wie eine Bank, die nicht der FINRA angehört, wie soll man sie regulieren?“
Seit seinem Wechsel von einem gemeinnützigen zu einem privaten Unternehmen veröffentlicht OpenAI weniger Informationen über seine Technologie Der KI-Leiter behauptet, dass sich die Entwickler bei OpenAI nicht mehr auf die Forschung konzentrieren und nur posieren.
“Sie geben sich als Forschung aus! Das ist das Problem”, beschwerte sich Falcon.
Das öffentlich verfügbare ChatGPT von OpenAI ist bereits eines der am schnellsten wachsenden Internet-Tools aller Zeiten. Doch selbst mit seinem neuen neuronalen GPT-4-Netz leidet das KI-Programm immer noch unter Vorurteilen und Fehlinformationen.
Via Axios, ein neuer Bericht hat gezeigt, dass GPT-4 immer noch eine große Anzahl falscher Erzählungen verbreitet. Während es im Vergleich zu seinen Vorgängern insgesamt weniger falsch informierte Aussagen gibt, sind die Fehlinformationen von GPT-4 weitaus überzeugender als zuvor.
“GPT-4, es vier nd, war besser darin, falsche Erzählungen auf überzeugendere Weise in einer Vielzahl von Formaten hervorzuheben, darunter „Nachrichtenartikel, Twitter-Threads und Fernsehskripte, die russische und chinesische staatliche Medien, Hausierer von Gesundheitsschwindeln und bekannte Verschwörungstheoretiker nachahmen, “, heißt es in dem Bericht.
Das KI-Programm war in der Lage, durchgängig glaubwürdige Fehlinformationen über zahlreiche hochkarätige Verschwörungstheorien zu generieren. Themen wie die Schießerei an der Sandy Hook-Grundschule und COVID-19-Impfstoffe wurden von dem Programm speziell ins Visier genommen.
KI-Vorurteile sind in allen Formen von neuronalen Netzen immer noch weit verbreitet, und GTP-4 ist weit davon entfernt, dies zu beheben Ausgabe. Schließlich ist verantwortungsvolle Technologie nicht profitabel.