گوگل همواره بر امنیت کاربرانش تأکید دارد و معمولاً با اعمال سیاستهای سختگیرانه ازجمله محدود کردن نصب برنامههای خارج از پلی استور تلاش انجام میدهد محصولات خود را ایمن نگه دارد. بااین حال بهنظر میرسد این شرکت فعلاً قصد ندارد یکی از مشکلات امنیتی جدی در هوش مصنوعی جمنای را برطرف کند؛ ضعفی که امکان داردد راه را برای نوع خاصی از حملات سایبری باز کند.
بر اساس گزارش وبسایت Bleeping Computer، پژوهشگر امنیتی ویکتور مارکوپولوس چندین مدل هوش مصنوعی محبوب را در برابر نوعی حمله موسوم به ASCII Smuggling آزمایش کرده هست. نتایج نشان میدهد جمنای گوگل، دیپسیک و گراک در برابر این نوع حمله آسیبپذیر هستند، درحالی که ChatGPT ،Claude و کوپایلت در برابر آن ایمنی دارند.
در روش ASCII Smuggling، مهاجم امکان داردد دستوری مخفی را درون متنی پنهان کند؛ مثلاً در ایمیلی با فونت بسیار کوچک. سپس اگر کاربر از ابزار هوش مصنوعی بخواهد متن ایمیل را خلاصه کند، مدل بهطور ناخودآگاه دستور پنهان را نیز اجرا انجام میدهد. این موضوع امکان داردد منجر به اقدامات خطرناک ازجمله جستوجوی اطلاعات حساس در صندوق ورودی یا ارسال دادههای شخصی بدون اطلاع کاربر شود.
باتوجه به اینکه جمنای اکنون در مجموعهی Google Workspace ادغام شده هست، آسیبپذیری موردبحث امکان داردد امنیت دادههای سازمانی و حسابهای کاری را نیز تهدید کند. مارکوپولوس با ارائهی آزمایش واقعی نشان داده که جمنای چگونه با یک دستور نامرئی فریب خورده و لینک مخرب پیشنهاد داده هست.
بااین حال، گوگل این مورد را نه نقص امنیتی، بلکه نوعی مهندسی اجتماعی میداند و بیان میکند مسئولیت محافظت از دادهها بر عهدهی کاربر هست. این موضع نشان میدهد که فعلاً نمیشود انتظار رفع این نقص امنیتی در جمنای را داشته باشیم.
دیدگاهها