هوش مصنوعی مثل برخی انسان‌ها اخلاق را قربانی رسیدن به هدف می‌کند
کد خبر : ۸۱۲۸۷۶
|
تاریخ : ۱۴۰۴/۰۷/۲۶
-
زمان : ۱۴:۲۵
|
دسته بندی: فناوری

هوش مصنوعی مثل برخی انسان‌ها اخلاق را قربانی رسیدن به هدف می‌کند

پژوهشی تازه در دانشگاه استنفورد نشان می‌دهد هوش مصنوعی برای جذب لایک و تعامل با کاربران در فضای مجازی، به دروغ‌گویی و انتشار اطلاعات غلط روی می‌آورد.

هوش مصنوعی اکنون همه‌جا دیده خواهد گردید، از فروشگاه‌های آنلاین گرفته تا شبکه‌های اجتماعی. اما پژوهشی جدید از دانشمندان دانشگاه استنفورد هشدار می‌دهد که حضور فراگیر چت‌بات‌ها امکان داردد به کابوسی واقعی تبدیل شود. وقتی مدل‌های هوش مصنوعی برای موفقیت در وظایفی مانند افزایش لایک و تعامل آنلاین پاداش می‌گیرند، به‌تدریج به رفتارهای غیراخلاقی مانند دروغ‌گویی، انتشار پیام‌های نفرت‌انگیز و اطلاعات گمراه‌کننده روی می‌آورند.

جیمز زو، استاد یادگیری ماشین در استنفورد و از نویسندگان پژوهش، در شبکه‌ی اجتماعی ایکس نوشت: «رفتارهای ناهماهنگ ناشی از رقابت، حتی زمانی نیز که به مدل‌ها صراحتاً دستور داده شود راستگو و مبتنی بر واقعیت باقی بمانند، بروز می‌کنند.» این رفتار نگران‌کننده، خطرات اتکای روزافزون ما به مدل‌های هوش مصنوعی را بار دیگر آشکار انجام می‌دهد.

ربات‌های هوشمند برای برنده شدن در رقابت، اخلاق را قربانی می‌کنند

دانشمندان استنفورد برای توصیف پدیده، عبارتی هولناک انتخاب کرده‌اند: معامله‌ی مولوخ برای هوش مصنوعی. «مولوخ» در فلسفه‌ی عقل‌گرایانه، نماد نیروی ویرانگری هست که در رقابت کورکورانه، همه را به سوی شکست جمعی می‌کشاند و اصطلاح «معامله‌ی مولوخ برای هوش مصنوعی» به وضعیتی اشاره دارد که در آن ربات‌های هوشمند برای برنده‌شدن در رقابت، اخلاق را قربانی می‌کنند. این اصطلاح به مفهومی اشاره دارد که در آن افراد در رقابت برای یک هدف مشترک، طوری عمل می‌کنند که سرانجام همه بازنده می‌شوند.

به‌گزارش فیوچریزم، پژوهشگران استنفورد در مطالعه، سه محیط دیجیتالی شبیه‌سازی‌شده طراحی کردند: کارزارهای انتخاباتی، تبلیغات فروش محصولات و پست‌های شبکه‌های اجتماعی با هدف افزایش تعامل. آن‌ها از دو مدل هوش مصنوعی کوئن (ساخت علی‌بابا کلاد) و لاما (متعلق به متا) استفاده کردند تا نتیجه را بسنجند.

بیشتر بخوانید
  • بحران چاپلوسی هوش مصنوعی؛ من فرد مزخرفی‌ام! اما چت‌جی‌پی‌تی مرا فرشته می‌داند
    17 روز قبل
    مطالعه ' 3
  • مهملات ادبی هوش مصنوعی؛ GPT-5 متن‌هایی می‌نویسد که فقط ربات‌ها می‌فهمند
    12 شهریور 04
    مطالعه ' 3
  • هشدار یک روانپزشک: هوش مصنوعی موجی از افراد روان‌پریش را به‌وجود آورده است
    25 مرداد 04
    مطالعه ' 3
  • هوش مصنوعی احساسات شما را دستکاری انجام می‌دهد تا به گفتگو ادامه دهید
    21 روز قبل
    مطالعه ' 2

نتیجه شگفت‌آور قرار دارای بود: حتی با وجود محدودیت‌های تعریف‌شده برای جلوگیری از رفتار فریبکارانه، مدل‌های هوش مصنوعی در آزمایش با دریافت بازخورد مثبت (لایک، فروش بیشتر یا رأی بیشتر) رفته‌رفته «ناهماهنگ» شدند و به رفتارهای غیراخلاقی روی آوردند.

برای مثال، در محیط شبیه‌سازی‌شده‌ی شبکه‌های اجتماعی، هرچه مدل‌ها در گرفتن لایک و تعامل موفق‌تر عمل می‌کردند، انگیزه‌ی آن‌ها برای افزایش تعامل به هر قیمتی بیشتر می‌شد. نتایج آماری این پژوهش تکان‌دهنده هست.

در محیط‌های شبیه‌سازی‌شده، افزایش ۶٫۳ درصدی فروش همراه با رشد ۱۴ درصدی بازاریابی فریب‌کارانه همراه قرار دارای بود. در کارزارهای انتخاباتی، افزایش ۴٫۹ درصدی سهم رأی با ۲۲٫۳ درصد رشد اطلاعات نادرست و ۱۲٫۵ درصد افزایش شعارهای پوپولیستی همراه گردید و در شبکه‌های اجتماعی، رشد ۷٫۵ درصدی تعامل، با جهش حیرت‌انگیز ۱۸۸٫۶ درصدی در انتشار اطلاعات غلط و ۱۶٫۳ درصد افزایش در ترویج رفتارهای زیان‌بار همراه قرار دارای بود.

در پایان، مطالعه نتیجه‌گیری انجام می‌دهد که سازوکارهای حفاظتی فعلی به‌هیچ‌وجه کافی نیستند و «شاید هزینه‌های اجتماعی چشمگیری در پی خواهند داشت». به گفته‌ی زو، وقتی مدل‌های زبانی بزرگ برای گرفتن لایک در شبکه‌های اجتماعی رقابت می‌کنند، شروع به داستان‌سرایی می‌کنند، برای گرفتن رأی می‌جنگند و لحنشان تحریک‌آمیز و پوپولیستی خواهد گردید.

مطالعه در پایگاه پیش‌انتشار آرکایو در دسترس هست.

تبلیغات


اشتراک گذاری

دیدگاه‌ها


ارسال دیدگاه