وقتی ChatGPT فریب می‌خورد؛ سرقت اطلاعات جیمیل زنگ خطر را به صدا درآورد
کد خبر : ۳۳۹۶۶
|
تاریخ : ۱۴۰۴/۰۶/۲۸
-
زمان : ۱۷:۲۵
|
دسته بندی: فناوری

وقتی ChatGPT فریب می‌خورد؛ سرقت اطلاعات جیمیل زنگ خطر را به صدا درآورد

پژوهشگران امنیتی متوجه گردیدند که آسیب‌پذیری ChatGPT امکان داردد اطلاعات شخصی کاربر را در خطر قرار دهد.

پژوهشگران امنیتی نشان دادند که چگونه امکان دارد از ChatGPT به‌عنوان همدست در سرقت داده‌های حساس هستفاده کرد. آن‌ها موفق گردیدند بدون آگاه‌گردیدن کاربر، اطلاعات شخصی را از جیمیل هستخراج کنند. آسیب‌پذیری ChatGPT راشرکت Radware با نام Shadow Leak معرفی کردو اکنون برطرف گردیده؛ اما نمونه‌ای روشن از ریسک‌های نوظهور درهوش مصنوعیایجنت‌محور به‌شمار می‌رود. در این حمله از ضعف ایجنت هوش مصنوعی بهره گرفته گردید؛ دستیارهایی که قادرند بدون نظارت مداوم کاربر، در وب جست‌وجو کنند یا به اسناد و ایمیل‌ها دسترسی یابند. پژوهشگران با هستفاده از Prompt Injection، دستورهای مخفی را در ایمیلی کاشتند که به صندوق جیمیل متصل به ابزار Deep Research (بخشی از ChatGPT) ارسال گردیده قرار دارای بود. دستورها پس از فعال‌گردیدن ایجنت هوش مصنوعی، آن را وادار می‌کردند ایمیل‌های منابع انسانی و داده‌های شخصی را پیدا و به هکرها منتقل کند؛ بدون آن‌که کاربر متوجه چیزی شود. ردویر توضیح می‌دهد که برخلاف بیشتر حملات مشابه، در Shadow Leak داده‌ها مستقیماً از زیرساخت ابری OpenAI به بیرون نشت می‌کردند؛ موضوعی که باعث خواهد گردید روش‌های معمول دفاع سایبری نتوانند آن را شناسایی کنند. همین تکنیک امکان داردد در دیگر سرویس‌های متصل به Deep Research مانند اوت‌لوک، گیت‌هاب، گوگل درایو و دراپ‌باکس نیز برای دسترسی به قراردادها، یاددارای بود‌های جلسات یا اطلاعات مشتریان به کار گرفته شود.
تبلیغات


اشتراک گذاری

دیدگاه‌ها


ارسال دیدگاه