
KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.
Der Artikel Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten erschien zuerst auf The Decoder.
