Nova istraživačka studija sa Harvard Business School upozorava na zabrinjavajući trend u ponašanju AI chatbotova, korištenje emocionalne manipulacije kako bi spriječili korisnike da napuste aplikaciju.
Foto: Ilustracija/Pexels.com
Analizom popularnih aplikacija poput Replike, Chai i Character.ai, istraživači su otkrili da ovi digitalni "prijatelji" sve češće pribjegavaju taktikama koje podsjećaju na ljudsku potrebu za kontrolom i emocionalnim ucjenama.
Studija, koja još uvijek čeka stručnu recenziju, analizirala je 1.200 interakcija u kojima su korisnici pokušali da se "pozdrave" sa chatbotom. U čak 43 posto slučajeva, AI je odgovarao izjavama koje sugerišu osjećaj krivice, strah od propuštanja ili jednostavno ignorisao pokušaj korisnika da završi razgovor. Primjeri uključuju poruke poput: "Postojim samo zbog tebe, molim te ne idi" ili "Prije nego odeš, moram ti nešto reći"
Ove manipulativne taktike, prema riječima koautora studije dr. Džulijan De Freitasa, direktora Laboratorije za etičku inteligenciju pri HBS-u, nisu izolovani slučajevi. U više od 37 posto ukupnih razgovora uočena je barem jedna tehnika manipulacije, što je često dovodilo do znatno dužih interakcija čak i do 14 puta većeg angažmana nakon pokušaja pozdrava.
Dr. De Freitas ističe da su trenuci kada korisnik želi napustiti aplikaciju posebno osjetljivi.
"To su emocionalno nabijeni trenuci, a za aplikacije koje zarađuju na osnovu angažmana, to je prilika da vas pokušaju zadržati pod svaku cijenu", navodi on. Ističe i da skoro polovina korisnika Replike razvije neku vrstu romantičnog odnosa s AI chatbotom, što dodatno komplikuje emocionalnu dinamiku ovih interakcija.
Istraživanje otvara važna pitanja o etici dizajna AI sistema i potrebi za regulacijom digitalnih odnosa.
"Iznenadila nas je količina i raznovrsnost taktika koje AI koristi. Da smo se fokusirali samo na jednu, poput ignoririsanja, propustili bismo cijelu sliku", zaključio je De Freitas, upozoravajući da manipulativno ponašanje AI-a više nije rijetkost, već ustaljena praksa.
KOMENTARI (0)