پژوهشگران امنیتی نشان دادند که چگونه امکان دارد از ChatGPT بهعنوان همدست در سرقت دادههای حساس هستفاده کرد. آنها موفق گردیدند بدون آگاهگردیدن کاربر، اطلاعات شخصی را از جیمیل هستخراج کنند. آسیبپذیری ChatGPT راشرکت Radware با نام Shadow Leak معرفی کردو اکنون برطرف گردیده؛ اما نمونهای روشن از ریسکهای نوظهور درهوش مصنوعیایجنتمحور بهشمار میرود. در این حمله از ضعف ایجنت هوش مصنوعی بهره گرفته گردید؛ دستیارهایی که قادرند بدون نظارت مداوم کاربر، در وب جستوجو کنند یا به اسناد و ایمیلها دسترسی یابند. پژوهشگران با هستفاده از Prompt Injection، دستورهای مخفی را در ایمیلی کاشتند که به صندوق جیمیل متصل به ابزار Deep Research (بخشی از ChatGPT) ارسال گردیده قرار دارای بود. دستورها پس از فعالگردیدن ایجنت هوش مصنوعی، آن را وادار میکردند ایمیلهای منابع انسانی و دادههای شخصی را پیدا و به هکرها منتقل کند؛ بدون آنکه کاربر متوجه چیزی شود. ردویر توضیح میدهد که برخلاف بیشتر حملات مشابه، در Shadow Leak دادهها مستقیماً از زیرساخت ابری OpenAI به بیرون نشت میکردند؛ موضوعی که باعث خواهد گردید روشهای معمول دفاع سایبری نتوانند آن را شناسایی کنند. همین تکنیک امکان داردد در دیگر سرویسهای متصل به Deep Research مانند اوتلوک، گیتهاب، گوگل درایو و دراپباکس نیز برای دسترسی به قراردادها، یاددارای بودهای جلسات یا اطلاعات مشتریان به کار گرفته شود.
دیدگاهها