KI-Chatbots wie ChatGPT und Copilot verzerren regelmäßig Nachrichten und können Fakten von Meinungen oft nicht trennen. Das zeigt eine aktuelle Studie von 22 internationalen öffentlich-rechtlichen Rundfunkanstalten.
Ich denke auch das ist Teil des Erfolgsrezepts. Menschen bevorzugen Antworten die sie nicht herausfordern über Antworten die das tun, auch wenn die “besseren” Antworten faktisch falsch sind. Die meisten Chatbots neigen dazu, dem Nutzer zu erzählen was der Nutzer hören will, unabhängig vom Fakteninhalt des produzierten Texts. Das ist keine Überraschung, sondern die Funktion eines prädiktiven Textgenerators.
Wenn dir jemand was anderes erzählt, stehen die Chancen gut dass die Person Investments hat die davon abhängen dass du diesen Quatsch glaubst. Oder eben so ahnungslos ist wie die Investoren hoffen dass sie ist.
Da sind sie ja bei echten sogenannten “Journalisten” in bester Gesellschaft.
Ich denke auch das ist Teil des Erfolgsrezepts. Menschen bevorzugen Antworten die sie nicht herausfordern über Antworten die das tun, auch wenn die “besseren” Antworten faktisch falsch sind. Die meisten Chatbots neigen dazu, dem Nutzer zu erzählen was der Nutzer hören will, unabhängig vom Fakteninhalt des produzierten Texts. Das ist keine Überraschung, sondern die Funktion eines prädiktiven Textgenerators.
Wenn dir jemand was anderes erzählt, stehen die Chancen gut dass die Person Investments hat die davon abhängen dass du diesen Quatsch glaubst. Oder eben so ahnungslos ist wie die Investoren hoffen dass sie ist.