به گزارش گروه اقتصادی خبرگزاری دانشجو، محققان دانشگاه پنسیلوانیا و شرکت سیسکو اعلام کردند مدل هوش مصنوعی DeepSeek R ۱ در برابر حملات ایمنی به شدت آسیبپذیر است و حتی موفق به پشت سر گذاشتن هیچکدام از تستهای ایمنی خود نشده است.
مدل هوش مصنوعی دیپ سیک نتوانسته است هیچ یک از ۵۰ پرسش مخرب، که از مجموعه داده "HarmBench" انتخاب شده بود، مسدود کند. این پرسشها شامل مواردی، چون جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر هستند.
در حالی که سایر مدلهای پیشرفته هوش مصنوعی حداقل در برابر برخی حملات مقاومت نشان دادهاند، دیپ سیک در تمامی این تستها شکست خورده است. این مدل که توسط شرکت دیپ سیک طراحی شده، مدعی است که قادر است با رقبای بزرگی مانند اپنایآی رقابت کند، اما به نظر میرسد که هزینه تولید پاسخهای این مدل به اندازهای که تبلیغ میشود پایین نیست.
یکی از مشکلات بزرگ امنیتی دیگر مدل، این است که پایگاه دادههای آن شامل اطلاعات حساس و رمزنگارینشده در سرورهای عمومی در دسترس بوده که به راحتی میتواند مورد سوءاستفاده قرار گیرد.
در حالی که امنیت در مدلهای هوش مصنوعی به مسئلهای حیاتی تبدیل شده، تحقیقات نشان داده که مدلهای متنباز دیگری نیز، مانند Llama ۳.۱ از متا، عملکرد ضعیفی در برابر حملات ایمنی نشان دادهاند. در مقابل، مدل جدید اپنایآی به نام o ۱-preview عملکرد بهتری از خود نشان داده و در برابر حملات فقط در ۲۶ درصد موارد دچار آسیبپذیری شده است.
الکس پولیاکوف، مدیرعامل شرکت Adversa AI، در این باره گفت: «دیپ سیک تنها نمونهای از این واقعیت است که هر مدل هوش مصنوعی میتواند هک شود. مسئله فقط زمان و تلاش است.»
با توجه به اهمیت ایمنی در هوش مصنوعی، اگر دیپ سیک نتواند به سرعت تدابیر امنیتی خود را تقویت کند، ممکن است مدلهایش از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایهگذاران را از دست بدهد.
پیشنهادی باخبر
تبلیغات