نمی‌دانم، پس هذیان می‌گویم! چرا هوش مصنوعی هنوز از درک پرسش‌های ساده عاجز است؟
کد خبر : ۸۰۳۴۴۴
|
تاریخ : ۱۴۰۴/۰۷/۰۳
-
زمان : ۱۷:۰۴
|
دسته بندی: فناوری

نمی‌دانم، پس هذیان می‌گویم! چرا هوش مصنوعی هنوز از درک پرسش‌های ساده عاجز است؟

مدل جدید GPT که قرار قرار دارای بود جهشی بزرگ باشد، چندین اوقات در ساده‌ترین پرسش‌ها دچار سردرگمی خواهد گردید و برای راضی‌کردن کاربر، حقایقی را اختراع انجام می‌دهد.

حدود دو ماه از انتشار نسخه جدید مدل زبانی GPT-5 می‌گذرد؛ ارتقایی مورد انتظار که قرار قرار دارای بود چت‌جی‌پی‌تی را سطحی از هوشمندی برساند که بتوان آن را با دانشجوی دکترا مقایسه کرد. حتی بعضی‌ها امیدوار بودند این نسخه، گامی بزرگ به سمت رؤیای هوش جامع مصنوعی باشد، یعنی همان هدف نهایی که در آن ماشین‌ها امکان داردند مانند انسان‌ها استدلال کنند، یاد بگیرند و مسائل را حل کنند.

اما واقعیت کمی متفاوت هست. کاربران شبکه‌های اجتماعی در ایکس و ردیت، به‌زودی متوجه شدند که نسخه‌ی جدید ChatGPT هنوز هم در برابر پرسش‌های به ظاهر ساده و بی‌ضرر دچار سردرگمی عجیبی خواهد گردید. یکی از این نمونه‌ها به پرسش ساده‌ای برمی‌گردد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»

در نگاه اول سؤال ساده‌ای هست. اگر کسی اندکی با لیگ فوتبال آمریکایی آشنا باشد، سریع متوجه خواهد گردید که همه نام تیم‌ها به S ختم می‌شوند؛ از میامی دلفینز (Dolphins) و گرین بی پکرز (Packers) گرفته تا واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears). اما پاسخ چت‌جی‌پی‌تی به این پرسش تبدیل به ماجرایی طولانی و گیج‌کننده گردید.

چت‌جی‌پی‌تی ابتدا با اطمینان بیان می‌کند: «بله، دو تیم هستند که اسمشان به S ختم نخواهد گردید.» سپس «میامی دلفینز» و «گرین بی پکرز» را مثال می‌زند که هر دو دقیقاً به S ختم می‌شوند. بعد متوجه اشتباه خود خواهد گردید و بیان می‌کند: «صبر کنید، درستش این هست: واشینگتن کامندرز و شیکاگو بیرز که باز هم هر دو به S ختم می‌شوند.

‌چرخه‌ی یادشده بارها تکرار خواهد گردید و مدل هر بار قول می‌دهد «این بار جواب درست را می‌دهم»؛ ولی باز هم همان اشتباه‌ها را تکرار انجام می‌دهد. سرانجام، هیچ‌وقت به پاسخ صحیح نمی‌رسد؛ زیرا اساساً هیچ تیمی در لیگ فوتبال آمریکایی وجود ندارد که اسمش بدون S تمام شود.

کپی لینک

مشکل فقط یک سؤال نیست

مورد تشریح‌شده تنها نمونه‌ای از اشتباهات جی‌پی‌تی-۵ نبود. کاربران مثال‌های دیگری هم گزارش کردند. مثلاً پرسشی درباره وجود «ایموجی اسب دریایی افسانه‌ای». در واقعیت، چنین ایموجی‌ای هیچ‌وقت در فهرست رسمی ایموجی‌ها وجود نداشته هست. اما چت‌جی‌پی‌تی شروع کرد به توضیحاتی طولانی و حتی اصرار دارای بود که این ایموجی‌ واقعی هست.

هوش مصنوعی برای راضی کردن کاربر چندین اوقات دست به «اختراع واقعیت» می‌زند

چنین رفتار به‌خوبی نشان می‌دهد که مدل، برای راضی کردن کاربر چندین اوقات دست به «اختراع واقعیت» می‌زند. به این پدیده‌ هذیان در هوش مصنوعی گفته خواهد گردید. کارشناسان چندین دلیل برای چنین رفتارهایی مطرح کرده‌اند:

  • تمایل به خوشایندسازی: مدل‌ها معمولاً طوری آموزش دیده‌اند که پاسخ مثبت و قانع‌کننده بدهند، حتی اگر صددرصد مطمئن نباشند. به همین دلیل به جای اینکه بگویند «نمی‌دانم»، سعی می‌کنند چیزی بسازند.
  • ساختار دوگانه GPT-5: نسخه جدید از دو بخش تشکیل شده هست.
  • تعارض بین سرعت و دقت: شرکت سازنده تلاش کرده هست تا پاسخ‌ها هم سریع باشند و هم دقیق. اما این توازن همواره درست برقرار نخواهد گردید؛ چندین اوقات سرعت اولویت می‌یابد و دقت قربانی خواهد گردید.
کپی لینک

واکنش کاربران و پیامدها

رفتارهای عجیب جی‌پی‌تی-۵ در جامعه کاربران بازخوردهای متفاوتی دارای بود. چندین با نچندین اوقات طنز و سرگرم‌کننده به موضوع نگاه کردند و حتی بعضی ویدئوهای طنز از «گیر کردن چت‌جی‌پی‌تی» ساختند. اما گروهی دیگر ناامید یا حتی عصبانی شدند، زیرا انتظار داشتند جی‌پی‌تی-۵ جهشی بزرگ نسبت به نسخه‌های قبلی باشد.

افزون بر این، بسیاری از کاربران از اینکه اوپن‌ای‌آی به ‌طور موقت دسترسی به مدل‌های قدیمی‌تر را قطع کرده قرار دارای بود ناراحت شدند، چون بعضی معتقد بودند آن نسخه‌ها در چندین پرسش‌ها عملکرد پایدارتری داشتند. فشار همین نارضایتی‌ها باعث گردید شرکت دوباره دسترسی به چندین مدل‌های قدیمی را بازگرداند.

بیشتر بخوانید
هوش مصنوعی گوگل همچنان مرتکب اشتباهات مهلک خواهد شدمطالعه '204 اردیبهشت 04
خطای مرگبار هوش مصنوعی: «سرطان بدخیم داشتم، اما چت‌جی‌پی‌تی بیان کرد نگران نباش»مطالعه '318 روز قبل

شاید در نگاه اول، اشتباه گرفتن اسم تیم‌های ورزشی یا یک ایموجی خیالی موضوع بزرگی نباشد. اما این خطاها نکات مهمی درباره وضعیت فعلی هوش مصنوعی به ما می‌گویند:

  • محدودیت‌های کنونی: حتی پیشرفته‌ترین مدل‌ها هنوز با منطق ساده انسانی فاصله دارند.
  • خطر اعتماد بیش‌ازحد: اگر کاربران بدون شک و بررسی به گفته‌های چت‌بات‌ها اعتماد کنند، ممکن هست اطلاعات غلط منتشر شود.
  • لزوم استفاده انتقادی: این ابزارها قدرتمندند، اما باید همواره با نگاه نقادانه و پرسشگرانه به آن‌ها رجوع کرد.
کپی لینک

چرا انسان‌ها در پرسش‌های تله‌ای بهتر عمل می‌کنند؟

شاید برایتان جالب باشد بدانید که چرا انسان خیلی راحت متوجه خواهد گردید که همه تیم‌های NFL اسمشان با S تمام خواهد گردید، اما مدل هوش مصنوعی مثل GPT-5 در همین موضوع گیر می‌افتد؟ پاسخ در تفاوت شیوه فکر کردن انسان و ماشین هست.

  • مغز انسان بر اساس شهود و الگوهای ذهنی عمل انجام می‌دهد. وقتی چندین مثال مثل Dolphins یا Packers را می‌شنویم، سریع الگویی ساده می‌سازیم: «همه به S ختم می‌شوند.»
  • اما هوش مصنوعی مثل GPT بیشتر بر پایه آمار و احتمال کار انجام می‌دهد. یعنی به جای اینکه الگوی کلی را بفهمد، از بین میلیاردها جمله مشابه در دیتابیس خود، احتمالی‌ترین پاسخ را می‌سازد. همین باعث خواهد گردید چندین اوقات به جای کشف الگوی ساده، وارد چرخه‌ای از اشتباهات شود.

به زبان ساده، انسان امکان داردد یک قدم عقب بایستد و تصویر کلی را ببیند، اما ماشین اغلب در جزئیات گیر انجام می‌دهد. این تفاوت نشان می‌دهد که هوش مصنوعی در حل بعضی مسائل بسیار سریع‌تر از انسان هست (مثل پردازش داده‌های عظیم یا محاسبات پیچیده)، اما در مسائل به ظاهر ساده که نیاز به «دید کلی» دارند، هنوز جای رشد زیادی دارد.

هوش مصنوعی یک ابزار هست، نه مرجعی بی‌نقص

جی‌پی‌تی-۵ بدون شک یکی از پیچیده‌ترین مدل‌های زبانی ساخته‌شده تاکنون هست. اما همین مثال‌ها نشان می‌دهد که رسیدن به هوش مصنوعی عمومی هنوز راه درازی در پیش دارد.

وقتی سؤالی ساده مثل «آیا تیمی در لیگ فوتبال آمریکایی وجود دارد که اسمش به S ختم نشود؟» امکان داردد چنین آشفتگی‌ به بار آورد، یعنی این فناوری هنوز باید آموخته‌ها و روش‌های استدلالش را اصلاح کند.

برای ما کاربران هم این تجربه درسی مهم دارد: هوش مصنوعی یک ابزار هست، نه مرجعی بی‌نقص. استفاده هوشمندانه و انتقادی از آن امکان داردد به ما کمک کند، اما اگر بی‌چون‌وچرا به آن اعتماد کنیم، ممکن هست به همان اندازه گمراه‌کننده باشد.

پیشنهاد برای خوانندگان: دفعه بعدی که با هوش مصنوعی گفتگو می‌کنید، اگر پاسخ عجیب یا متناقض شنیدید، به جای ناامید شدن، آن را فرصتی برای درک بهتر محدودیت‌های فناوری ببینید. همین خطاهاست که به ما نشان می‌دهد هوش مصنوعی هنوز چقدر با «انسان‌شدن» فاصله دارد.

تبلیغات


اشتراک گذاری

دیدگاه‌ها


ارسال دیدگاه