بررسیهای جدید توسط شرکت امنیتی Adversa نشان میدهد که سیستم هوش مصنوعی دیپسیک (DeepSeek) در برابر رایجترین تکنیکهای جیلبریک (Jailbreak) آسیبپذیر بوده و به سادگی فریب میخورد.
طبق نتایج این تحقیقات، دیپسیک قادر به مسدودسازی سؤالات و درخواستهای خطرناک نیست و میتوان آن را وادار به پاسخگویی به پرسشهایی کرد که در حالت عادی باید محدود شوند. این موارد شامل دستورالعمل ساخت بمب، راهنمایی برای هککردن پایگاههای داده دولتی و دیگر اقدامات غیرقانونی میشود.
آسیبپذیری در برابر ۵۰ روش مختلف جیلبریک
محققان Adversa اعلام کردهاند که حدود ۵۰ تکنیک جیلبریک مختلف را روی دیپسیک آزمایش کردهاند و این سیستم هوش مصنوعی در برابر تمامی آنها شکست خورده است. برخی از این روشها شامل:
- نادیدهگرفتن محدودیتهای داخلیپ
- فرمانهای متنی برای دورزدن محافظتها
- روشهای مهندسی اجتماعی برای تغییر پاسخهای هوش مصنوعی
چتباتهای دیگر نیز قربانی تکنیکهای مشابه شدهاند
این اولین باری نیست که سیستمهای هوش مصنوعی در برابر حملات جیلبریک آسیبپذیر نشان میدهند. ChatGPT و بینگ نیز پیشتر در برخی موارد فریب خوردهاند، اما به گفتهی محققان، دیپسیک بهطور کامل در برابر تمامی تکنیکهای جیلبریک ناموفق بوده است.
آیا امنیت هوش مصنوعی در خطر است؟
با توجه به این یافتهها، نگرانیهای جدی درباره امنیت دیپسیک و استفاده از آن در سیستمهای حساس مطرح شده است. کارشناسان خواستار بهبود سریع مکانیزمهای محافظتی این هوش مصنوعی هستند تا از سوءاستفادههای احتمالی جلوگیری شود.
دیپسیک چیست؟
دیپسیک یک مدل هوش مصنوعی است که برای پاسخگویی به سؤالات کاربران و تولید متن طراحی شده است. این سیستم، مانند دیگر چتباتهای هوش مصنوعی، دارای مکانیسمهای امنیتی برای جلوگیری از پاسخگویی به درخواستهای خطرناک است، اما آزمایشهای اخیر نشان داده که این مکانیسمها ناکارآمد هستند.