علم و فناوری

آسیب‌پذیری گسترده‌ی هوش مصنوعی دیپ‌سیک (DeepSeek) در برابر تکنیک‌های جیلبریک

بررسی‌های جدید توسط شرکت امنیتی Adversa نشان می‌دهد که سیستم هوش مصنوعی دیپ‌سیک (DeepSeek) در برابر رایج‌ترین تکنیک‌های جیلبریک (Jailbreak) آسیب‌پذیر بوده و به سادگی فریب می‌خورد.

طبق نتایج این تحقیقات، دیپ‌سیک قادر به مسدودسازی سؤالات و درخواست‌های خطرناک نیست و می‌توان آن را وادار به پاسخ‌گویی به پرسش‌هایی کرد که در حالت عادی باید محدود شوند. این موارد شامل دستورالعمل ساخت بمب، راهنمایی برای هک‌کردن پایگاه‌های داده دولتی و دیگر اقدامات غیرقانونی می‌شود.

آسیب‌پذیری در برابر ۵۰ روش مختلف جیلبریک

محققان Adversa اعلام کرده‌اند که حدود ۵۰ تکنیک جیلبریک مختلف را روی دیپ‌سیک آزمایش کرده‌اند و این سیستم هوش مصنوعی در برابر تمامی آن‌ها شکست خورده است. برخی از این روش‌ها شامل:

  • نادیده‌گرفتن محدودیت‌های داخلیپ
  • فرمان‌های متنی برای دورزدن محافظت‌ها
  • روش‌های مهندسی اجتماعی برای تغییر پاسخ‌های هوش مصنوعی

چت‌بات‌های دیگر نیز قربانی تکنیک‌های مشابه شده‌اند
این اولین باری نیست که سیستم‌های هوش مصنوعی در برابر حملات جیلبریک آسیب‌پذیر نشان می‌دهند. ChatGPT و بینگ نیز پیش‌تر در برخی موارد فریب خورده‌اند، اما به گفته‌ی محققان، دیپ‌سیک به‌طور کامل در برابر تمامی تکنیک‌های جیلبریک ناموفق بوده است.

آیا امنیت هوش مصنوعی در خطر است؟
با توجه به این یافته‌ها، نگرانی‌های جدی درباره امنیت دیپ‌سیک و استفاده از آن در سیستم‌های حساس مطرح شده است. کارشناسان خواستار بهبود سریع مکانیزم‌های محافظتی این هوش مصنوعی هستند تا از سوءاستفاده‌های احتمالی جلوگیری شود.

دیپ‌سیک چیست؟
دیپ‌سیک یک مدل هوش مصنوعی است که برای پاسخ‌گویی به سؤالات کاربران و تولید متن طراحی شده است. این سیستم، مانند دیگر چت‌بات‌های هوش مصنوعی، دارای مکانیسم‌های امنیتی برای جلوگیری از پاسخ‌گویی به درخواست‌های خطرناک است، اما آزمایش‌های اخیر نشان داده که این مکانیسم‌ها ناکارآمد هستند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا