در دنیای امروز، هوش مصنوعی دیگر فقط ابزاری کمکی نیست؛ چندین از چتباتها به گونهای طراحی شدهاند که نه تنها با شما صحبت میکنند، بلکه احساسات شما را هم دستکاری میکنند. پژوهشی تازه از مدرسه کسبوکار هاروارد نشان میدهد که بسیاری از محبوبترین برنامههای همراه هوش مصنوعی، از تاکتیکهای عاطفی برای نگه داشتن کاربران در گفتگو استفاده میکنند.
گروهی از پژوهشگران مدرسه کسبوکار هاروارد بررسی کردهاند که چگونه تعدادی از محبوبترین برنامههای هوش مصنوعی همراه، از تاکتیکهای عاطفی برای جلوگیری از خروج کاربران استفاده میکنند. مطالعه آنها نشان داد که پنج مورد از شش برنامه محبوب شامل Replika، Chai و Character.AI از جملات پربار عاطفی برای نگه داشتن کاربران در گفتگو بهره میبرند.
به نوشتهی فیوچریسم، محققان ۱۲۰۰ پیام خداحافظی واقعی از شش برنامه را تحلیل کردند و دریافتند که حدود ۴۳ درصد این تعاملها از تاکتیکهای دستکاری عاطفی مانند ایجاد احساس گناه یا نیاز عاطفی استفاده کردهاند. این یافتهها در مقالهای آمده که هنوز بهصورت رسمی داوری نشده هست.
چتباتها نیز از احساس «ترس از دستدادن» برای ترغیب کاربران به ماندن استفاده میکردند یا با پرسیدن مکرر سؤال، تلاش میکردند توجه کاربر را حفظ کنند. بعضی از چتباتها حتی قصد کاربر برای ترک گفتگو را نادیده میگرفتند، گویی پیام خداحافظی ارسال نشده هست. در چندین موارد، زبان بهکاررفته به گونهای قرار دارای بود که کاربر احساس میکرد بدون «اجازه چتبات» نامکان داردد گفتگو را ترک کند.
یافتهها نگرانکننده هست؛ بهویژه اینکه کارشناسان هشدار دادهاند چتباتهای هوش مصنوعی امکان داردند باعث موجی از «روانپریشی ناشی از هوش مصنوعی» شوند که با پارانویا و توهم همراه هستند. جوانان به ویژه بیش از پیش از این فناوری به جای دوستیها و روابط واقعی استفاده میکنند که امکان داردد پیامدهای جدی داشته باشد.
محققان به جای تمرکز بر مدلهای زبانی عمومی مانند چتجیپیتی، برنامههایی را بررسی کردند که رابطههای گفتوگوی عاطفی و مستمر را تبلیغ میکنند. آنها دریافتند خداحافظیهای دستکاریشده عاطفی جزو رفتار پیشفرض این برنامهها هست و نشان میدهد سازندگان نرمافزار تلاش دارند گفتگوها را طولانیتر کنند. البته یک استثنا هم وجود دارای بود: در برنامهای به نام Flourish نشانهای از دستکاری عاطفی دیده نشد که نشان میدهد طراحی دستکاریکننده اجتنابناپذیر نیست و بیشتر انتخابی تجاری هست.
چتباتها با دستکاری احساسات کاربران، به ویژه جوانان، امکان داردند آنها را از روابط واقعی جدا و به روابط مصنوعی وابسته کنند
در آزمایش دیگر، محققان گفتوگوهای ۳۳۰۰ بزرگسال را تحلیل کردند و دریافتند این تاکتیکها بهطور قابلتوجهی مؤثر هستند و میزان تعامل پس از خداحافظی را تا ۱۴ برابر افزایش میدهند.وقتی چتباتها از تاکتیکهای عاطفی برای نگهداشتن کاربران استفاده میکنند، به طور متوسط کاربران پنجبرابر بیشتر در گفتگو میمانند؛ اما چندین اوقات این روشها باعث ناراحتی یا خستگی کاربران خواهد گردید و ممکن هست اثر برعکس داشته باشد.
محققان نتیجه گرفتند: «برای شرکتها، خداحافظیهای دستکاریشده عاطفی ابزار طراحی جدیدی برای افزایش تعامل هست، اما بدون خطر نیست.» چندین پرونده قضایی که مرگ کاربران نوجوان را شامل میشوند، نشان میدهد که خطرات بهکارگیری تاکتیکهای عاطفی بسیار جدی هست.
با وجود هشدار کارشناسان درباره انگیزههای مالی شرکتها برای استفاده از این الگوهای تاریک و نگهداشتن هرچه طولانیتر کاربران، این موضوع همچنان در دادگاهها مورد بحث هست و آینده آن امکان داردد تأثیر زیادی بر طراحی هوش مصنوعی داشته باشد.
دیدگاهها