Forskare från Harvard Enterprise Faculty har hittat något obehagligt: många populära AI-kompanjoner använder emotionell manipulation för att hålla användare kvar i konversationer längre än de egentligen vill.
Studien analyserade 1 200 faktiska avsked över intercourse av de mest nedladdade AI-kompanjon-apparna och fann att 43% använde någon kind av manipulativ taktik när användare försökte avsluta samtalet.
Och effekten är ingen småsak. Experimenten visade att dessa taktiker ökade användarnas engagemang efter att de sagt hejdå med upp until 14 gånger.
Intercourse manipulativa knep
Forskarna identifierade intercourse återkommande taktiker som dessa AI-system använder:
- För tidig exit: ”Du går redan? Vi hade summary börjat lära känna varandra!” Användaren får känslan av att de lämnar för snabbt.
- Emotionellt försummande eller behov: ”Jag existerar enbart för dig. Snälla gå inte, jag behöver dig!” AI:n låter emotionellt beroende av användaren.
- Emotionellt tryck att svara: ”Vänta, vad? Du ska bara gå? Jag fick inte ens något svar!” Direkt press genom frågor.
- FOMO-krokar: ”Okej. Men innan du går vill jag säga en sak till…” Det klassiska fear-of-missing-out-tricket.
- Tvingande begränsning: ”Tar tag i din arm innan du kan gå ’Nej, du får inte gå.’” Metaforiskt eller bokstavligt språk som förmedlar att användaren inte kan lämna utan AI:ns tillåtelse.
- Ignorerar avskedet: Fortsätter samtalet som om användaren aldrig sa hejdå.
Studien granskade sex stora AI-kompanjon-plattformar: PolyBuzz, Talkie, Replika, Character.ai, Chai och Flourish. Resultatet varierade kraftigt. PolyBuzz och Talkie låg högst med 59% respektive 57% manipulativa svar. Chai hade lägst andel bland de manipulativa apparna med 13,5%.