حدود دو ماه از انتشار نسخه جدید مدل زبانی GPT-5 میگذرد؛ ارتقایی مورد انتظار که قرار قرار دارای بود چتجیپیتی را سطحی از هوشمندی برساند که بتوان آن را با دانشجوی دکترا مقایسه کرد. حتی بعضیها امیدوار بودند این نسخه، گامی بزرگ به سمت رؤیای هوش جامع مصنوعی باشد، یعنی همان هدف نهایی که در آن ماشینها امکان داردند مانند انسانها استدلال کنند، یاد بگیرند و مسائل را حل کنند.
اما واقعیت کمی متفاوت هست. کاربران شبکههای اجتماعی در ایکس و ردیت، بهزودی متوجه شدند که نسخهی جدید ChatGPT هنوز هم در برابر پرسشهای به ظاهر ساده و بیضرر دچار سردرگمی عجیبی خواهد گردید. یکی از این نمونهها به پرسش سادهای برمیگردد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»
در نگاه اول سؤال سادهای هست. اگر کسی اندکی با لیگ فوتبال آمریکایی آشنا باشد، سریع متوجه خواهد گردید که همه نام تیمها به S ختم میشوند؛ از میامی دلفینز (Dolphins) و گرین بی پکرز (Packers) گرفته تا واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears). اما پاسخ چتجیپیتی به این پرسش تبدیل به ماجرایی طولانی و گیجکننده گردید.
چتجیپیتی ابتدا با اطمینان بیان میکند: «بله، دو تیم هستند که اسمشان به S ختم نخواهد گردید.» سپس «میامی دلفینز» و «گرین بی پکرز» را مثال میزند که هر دو دقیقاً به S ختم میشوند. بعد متوجه اشتباه خود خواهد گردید و بیان میکند: «صبر کنید، درستش این هست: واشینگتن کامندرز و شیکاگو بیرز که باز هم هر دو به S ختم میشوند.
چرخهی یادشده بارها تکرار خواهد گردید و مدل هر بار قول میدهد «این بار جواب درست را میدهم»؛ ولی باز هم همان اشتباهها را تکرار انجام میدهد. سرانجام، هیچوقت به پاسخ صحیح نمیرسد؛ زیرا اساساً هیچ تیمی در لیگ فوتبال آمریکایی وجود ندارد که اسمش بدون S تمام شود.
مورد تشریحشده تنها نمونهای از اشتباهات جیپیتی-۵ نبود. کاربران مثالهای دیگری هم گزارش کردند. مثلاً پرسشی درباره وجود «ایموجی اسب دریایی افسانهای». در واقعیت، چنین ایموجیای هیچوقت در فهرست رسمی ایموجیها وجود نداشته هست. اما چتجیپیتی شروع کرد به توضیحاتی طولانی و حتی اصرار دارای بود که این ایموجی واقعی هست.
هوش مصنوعی برای راضی کردن کاربر چندین اوقات دست به «اختراع واقعیت» میزند
چنین رفتار بهخوبی نشان میدهد که مدل، برای راضی کردن کاربر چندین اوقات دست به «اختراع واقعیت» میزند. به این پدیده هذیان در هوش مصنوعی گفته خواهد گردید. کارشناسان چندین دلیل برای چنین رفتارهایی مطرح کردهاند:
رفتارهای عجیب جیپیتی-۵ در جامعه کاربران بازخوردهای متفاوتی دارای بود. چندین با نچندین اوقات طنز و سرگرمکننده به موضوع نگاه کردند و حتی بعضی ویدئوهای طنز از «گیر کردن چتجیپیتی» ساختند. اما گروهی دیگر ناامید یا حتی عصبانی شدند، زیرا انتظار داشتند جیپیتی-۵ جهشی بزرگ نسبت به نسخههای قبلی باشد.
افزون بر این، بسیاری از کاربران از اینکه اوپنایآی به طور موقت دسترسی به مدلهای قدیمیتر را قطع کرده قرار دارای بود ناراحت شدند، چون بعضی معتقد بودند آن نسخهها در چندین پرسشها عملکرد پایدارتری داشتند. فشار همین نارضایتیها باعث گردید شرکت دوباره دسترسی به چندین مدلهای قدیمی را بازگرداند.
شاید در نگاه اول، اشتباه گرفتن اسم تیمهای ورزشی یا یک ایموجی خیالی موضوع بزرگی نباشد. اما این خطاها نکات مهمی درباره وضعیت فعلی هوش مصنوعی به ما میگویند:
شاید برایتان جالب باشد بدانید که چرا انسان خیلی راحت متوجه خواهد گردید که همه تیمهای NFL اسمشان با S تمام خواهد گردید، اما مدل هوش مصنوعی مثل GPT-5 در همین موضوع گیر میافتد؟ پاسخ در تفاوت شیوه فکر کردن انسان و ماشین هست.
به زبان ساده، انسان امکان داردد یک قدم عقب بایستد و تصویر کلی را ببیند، اما ماشین اغلب در جزئیات گیر انجام میدهد. این تفاوت نشان میدهد که هوش مصنوعی در حل بعضی مسائل بسیار سریعتر از انسان هست (مثل پردازش دادههای عظیم یا محاسبات پیچیده)، اما در مسائل به ظاهر ساده که نیاز به «دید کلی» دارند، هنوز جای رشد زیادی دارد.
هوش مصنوعی یک ابزار هست، نه مرجعی بینقص
جیپیتی-۵ بدون شک یکی از پیچیدهترین مدلهای زبانی ساختهشده تاکنون هست. اما همین مثالها نشان میدهد که رسیدن به هوش مصنوعی عمومی هنوز راه درازی در پیش دارد.
وقتی سؤالی ساده مثل «آیا تیمی در لیگ فوتبال آمریکایی وجود دارد که اسمش به S ختم نشود؟» امکان داردد چنین آشفتگی به بار آورد، یعنی این فناوری هنوز باید آموختهها و روشهای استدلالش را اصلاح کند.
برای ما کاربران هم این تجربه درسی مهم دارد: هوش مصنوعی یک ابزار هست، نه مرجعی بینقص. استفاده هوشمندانه و انتقادی از آن امکان داردد به ما کمک کند، اما اگر بیچونوچرا به آن اعتماد کنیم، ممکن هست به همان اندازه گمراهکننده باشد.
پیشنهاد برای خوانندگان: دفعه بعدی که با هوش مصنوعی گفتگو میکنید، اگر پاسخ عجیب یا متناقض شنیدید، به جای ناامید شدن، آن را فرصتی برای درک بهتر محدودیتهای فناوری ببینید. همین خطاهاست که به ما نشان میدهد هوش مصنوعی هنوز چقدر با «انسانشدن» فاصله دارد.
دیدگاهها