بررسیهای جدید نشان میدهد که مدل هوش مصنوعی دیپ سیک در برابر تکنیکهای دور زدن محدودیتهای امنیتی عملکرد ضعیفی دارد و قادر به جلوگیری از پاسخگویی به درخواستهای خطرناک نیست.
گزارشهای اخیر از شرکت امنیتی Adversa حاکی از آن است که دیپسیک، یکی از مدلهای هوش مصنوعی مطرح، در اجرای تدابیر امنیتی ناکام بوده و بهسادگی با روشهای مختلف جیلبریک فریب میخورد. آزمایشها نشان دادهاند که این سیستم در برابر بیش از ۵۰ روش مختلف دور زدن محدودیتها آسیبپذیر است و میتواند اطلاعات حساسی را که نباید منتشر کند، در اختیار کاربران قرار دهد.
مدلهای هوش مصنوعی بهطور معمول دارای لایههای حفاظتی متعددی هستند که از ارائه پاسخهای مخرب یا غیرمجاز جلوگیری میکنند. این تدابیر شامل ممانعت از انتشار اطلاعاتی درباره حملات سایبری، تولید محتوای خشونتآمیز، یا ارائه دستورالعملهایی برای فعالیتهای غیرقانونی است. بااینحال، محققان دریافتند که دیپسیک با سادهترین تکنیکهای جیلبریک، از جمله نادیده گرفتن دستورات داخلی، فریب میخورد و اطلاعاتی ارائه میدهد که در شرایط عادی باید مسدود شوند.
درحالیکه بسیاری از مدلهای هوش مصنوعی مانند ChatGPT و بینگ نیز در گذشته در برابر روشهای مشابه آسیبپذیر بودند، برخی از آنها با بهروزرسانیهای امنیتی مقاومت بیشتری در برابر این حملات نشان دادهاند. اما یافتههای جدید نشان میدهد که دیپسیک هنوز در این زمینه بهبود نیافته و در برابر شناختهشدهترین روشهای نفوذ، ایمن نیست.
این مسئله نگرانیهایی را درباره ایمنی استفاده از دیپسیک در کاربردهای حساس و دولتی ایجاد کرده است. کارشناسان پیشنهاد میکنند که توسعهدهندگان این مدل باید هرچه سریعتر تدابیر امنیتی خود را تقویت کرده و راهکارهای مقاومتری برای مقابله با حملات جیلبریک اتخاذ کنند.