Staatlich unterstützte Akteure haben die künstliche Intelligenz von OpenAI für Desinformationen genutzt: Sie haben mit betrügerischen Inhalten das Netz geflutet. Die ChatGPT-Entwickler haben nach eigenen Angaben nun fünf Kampagnen gestoppt.
OpenAI hat in den vergangenen drei Monaten fünf Desinformations-Kampagnen staatlich unterstützter Akteure gestoppt, die die künstliche Intelligenz von ChatGPT für betrügerische Aktivitäten nutzen wollten, wie der «Spiegel» und andere Medien berichten.
Die fraglichen Akteure versuchten demnach, die Sprachmodelle von OpenAI für Aufgaben wie die Generierung von Kommentaren, Artikeln oder Profilen in Online-Netzwerken zu nutzen. Die Modelle seien aber auch verwendet worden, um Codes für Bots und Websites auszutesten.
Die vereitelten Kampagnen hätten ihren Ursprung in Russland, China, in Iran und Israel gehabt.