Der neueste vierteljährliche Consumer Cyber Safety Pulse Report von Norton untersucht, wie Cyberkriminelle künstliche Intelligenz nutzen können, um mehr zu schaffen realistische und ausgeklügelte Bedrohungen.
Tools wie ChatGPT haben in letzter Zeit die Aufmerksamkeit der Menschen auf sich gezogen, und es scheint, dass Cyberkriminelle sie auch bemerkt haben. Seine beeindruckende Fähigkeit, menschenähnlichen Text zu generieren, der sich an verschiedene Sprachen und Zielgruppen anpasst, macht es auch großartig, um böswillige Bedrohungen zu generieren.
Der Bericht hebt auch hervor, dass diese Fähigkeit verwendet werden kann, um Fehlinformationen zu erstellen und zu verbreiten, um Erzählungen zu formen , Rankings von Produktbewertungen verzerren und mehr.
Während ChatGPT das Leben von Entwicklern erleichtert, indem es Quellcode schreiben und übersetzen kann, kann es auch das Leben von Cyberkriminellen erleichtern, indem es Betrug schneller zu erstellen und schwieriger zu entdecken macht. Wir haben bereits gesehen, wie es Tipps zum Hacken von Websites geben kann.
„Ich bin begeistert von großen Sprachmodellen wie ChatGPT, bin aber auch vorsichtig, wie Cyberkriminelle es missbrauchen können. Wir wissen, dass sich Cyberkriminelle schnell an die neueste Technologie anpassen, und wir sehen, dass ChatGPT können verwendet werden, um schnell und einfach überzeugende Bedrohungen zu erstellen”, sagt Kevin Roundy, Senior Technical Director von Norton. „Es wird für Menschen immer schwieriger, Betrug selbst zu erkennen, weshalb Cyber-Sicherheitslösungen, die mehr Aspekte unseres digitalen Lebens berücksichtigen – von unseren Mobilgeräten über unsere Online-Identität bis hin zum Wohlbefinden unserer Mitmenschen – sind erforderlich, um uns in unserer sich entwickelnden Welt zu schützen.”
Weitere Informationen finden Sie im Norton-Blog zusammen mit Ratschlägen, wie Sie sich vor dieser neuesten Generation von KI-gestützten Bedrohungen schützen können.
Bildnachweis: denisismagilov/depositphotos.com