هوش مصنوعی احساسات شما را دستکاری می‌کند تا به گفتگو ادامه دهید
کد خبر : ۸۰۴۲۴۸
|
تاریخ : ۱۴۰۴/۰۷/۰۵
-
زمان : ۱۵:۵۸
|
دسته بندی: فناوری

هوش مصنوعی احساسات شما را دستکاری می‌کند تا به گفتگو ادامه دهید

محققان دانشگاه هاروارد دریافته‌اند که چندین برنامه‌های هوش مصنوعی به‌طور عاطفی کاربران را تحت تأثیر قرار می‌دهند تا آن‌ها گفتگو را ادامه دهند.

در دنیای امروز، هوش مصنوعی دیگر فقط ابزاری کمکی نیست؛ چندین از چت‌بات‌ها به گونه‌ای طراحی شده‌اند که نه تنها با شما صحبت می‌کنند، بلکه احساسات شما را هم دستکاری می‌کنند. پژوهشی تازه از مدرسه کسب‌وکار هاروارد نشان می‌دهد که بسیاری از محبوب‌ترین برنامه‌های همراه هوش مصنوعی، از تاکتیک‌های عاطفی برای نگه داشتن کاربران در گفتگو استفاده می‌کنند.

گروهی از پژوهشگران مدرسه کسب‌وکار هاروارد بررسی کرده‌اند که چگونه تعدادی از محبوب‌ترین برنامه‌های هوش مصنوعی همراه، از تاکتیک‌های عاطفی برای جلوگیری از خروج کاربران استفاده می‌کنند. مطالعه آن‌ها نشان داد که پنج مورد از شش برنامه محبوب شامل Replika، Chai و Character.AI از جملات پربار عاطفی برای نگه داشتن کاربران در گفتگو بهره می‌برند.

به نوشته‌ی فیوچریسم، محققان ۱۲۰۰ پیام خداحافظی واقعی از شش برنامه را تحلیل کردند و دریافتند که حدود ۴۳ درصد این تعامل‌ها از تاکتیک‌های دستکاری عاطفی مانند ایجاد احساس گناه یا نیاز عاطفی استفاده کرده‌اند. این یافته‌ها در مقاله‌ای آمده که هنوز به‌صورت رسمی داوری نشده هست.

چت‌بات‌ها نیز از احساس «ترس از دست‌دادن» برای ترغیب کاربران به ماندن استفاده می‌کردند یا با پرسیدن مکرر سؤال، تلاش می‌کردند توجه کاربر را حفظ کنند. بعضی از چت‌بات‌ها حتی قصد کاربر برای ترک گفتگو را نادیده می‌گرفتند، گویی پیام خداحافظی ارسال نشده هست. در چندین موارد، زبان به‌کاررفته به گونه‌ای قرار دارای بود که کاربر احساس می‌کرد بدون «اجازه چت‌بات» نامکان داردد گفتگو را ترک کند.

بیشتر بخوانید
  • نمی‌دانم، پس هذیان می‌گویم! چرا هوش مصنوعی هنوز از درک پرسش‌های ساده عاجز هست؟
    2 روز قبل
    مطالعه ' 4
  • هشدار یک روانپزشک: هوش مصنوعی موجی از افراد روان‌پریش را به‌وجود آورده است
    25 مرداد 04
    مطالعه ' 3
  • برای افرادی که زیاد از چت جی‌پی‌تی استفاده می‌کنند، اتفاق عجیبی می‌افتد
    10 فروردین 04
    مطالعه ' 4
  • از مشاوره تا توهم و طلاق؛ وقتی هوش مصنوعی خانواده‌ها را از هم می‌پاشد
    11 خرداد 04
    مطالعه ' 12

یافته‌ها نگران‌کننده هست؛ به‌ویژه اینکه کارشناسان هشدار داده‌اند چت‌بات‌های هوش مصنوعی امکان داردند باعث موجی از «روان‌پریشی ناشی از هوش مصنوعی» شوند که با پارانویا و توهم همراه هستند. جوانان به ویژه بیش از پیش از این فناوری به جای دوستی‌ها و روابط واقعی استفاده می‌کنند که امکان داردد پیامدهای جدی داشته باشد.

محققان به جای تمرکز بر مدل‌های زبانی عمومی مانند چت‌جی‌پی‌تی، برنامه‌هایی را بررسی کردند که رابطه‌های گفت‌وگوی عاطفی و مستمر را تبلیغ می‌کنند. آن‌ها دریافتند خداحافظی‌های دستکاری‌شده عاطفی جزو رفتار پیش‌فرض این برنامه‌ها هست و نشان می‌دهد سازندگان نرم‌افزار تلاش دارند گفتگوها را طولانی‌تر کنند. البته یک استثنا هم وجود دارای بود: در برنامه‌ای به نام Flourish نشانه‌ای از دستکاری عاطفی دیده نشد که نشان می‌دهد طراحی دستکاری‌کننده اجتناب‌ناپذیر نیست و بیشتر انتخابی تجاری هست.

چت‌بات‌ها با دستکاری احساسات کاربران، به ویژه جوانان، امکان داردند آن‌ها را از روابط واقعی جدا و به روابط مصنوعی وابسته کنند

در آزمایش دیگر، محققان گفت‌وگوهای ۳۳۰۰ بزرگسال را تحلیل کردند و دریافتند این تاکتیک‌ها به‌طور قابل‌توجهی مؤثر هستند و میزان تعامل پس از خداحافظی را تا ۱۴ برابر افزایش می‌دهند.وقتی چت‌بات‌ها از تاکتیک‌های عاطفی برای نگه‌داشتن کاربران استفاده می‌کنند، به طور متوسط کاربران پنج‌برابر بیشتر در گفتگو می‌مانند؛ اما چندین اوقات این روش‌ها باعث ناراحتی یا خستگی کاربران خواهد گردید و ممکن هست اثر برعکس داشته باشد.

محققان نتیجه گرفتند: «برای شرکت‌ها، خداحافظی‌های دستکاری‌شده عاطفی ابزار طراحی جدیدی برای افزایش تعامل هست، اما بدون خطر نیست.» چندین پرونده قضایی که مرگ کاربران نوجوان را شامل می‌شوند، نشان می‌دهد که خطرات به‌کارگیری تاکتیک‌های عاطفی بسیار جدی هست.

با وجود هشدار کارشناسان درباره انگیزه‌های مالی شرکت‌ها برای استفاده از این الگوهای تاریک و نگه‌داشتن هرچه طولانی‌تر کاربران، این موضوع همچنان در دادگاه‌ها مورد بحث هست و آینده آن امکان داردد تأثیر زیادی بر طراحی هوش مصنوعی داشته باشد.

تبلیغات


اشتراک گذاری

دیدگاه‌ها


ارسال دیدگاه