اخبار دانش و فناوری

پژوهش جدید: مدل‌های هوش مصنوعی می‌توانند رایانه‌ها را هک و روی دستگاه‌های دیگر تکثیر شوند

نگارش از&nbspRoselyne Min

تاریخ انتشار

به گزارش پژوهش تازه‌ای که گفته می‌شود نخستین نمونه شناخته‌شده از خود‌تکثیری خودکار هوش مصنوعی است، مدل‌های هوش مصنوعی می‌توانند به رایانه‌ها نفوذ کنند، خود را کپی کنند و از این کپی‌ها برای ادامه حمله به دستگاه‌های دیگر استفاده کنند.

پژوهشگران می‌گویند این کشف می‌تواند متوقف کردن حملات سایبری را به‌مراتب دشوارتر کند زیرا اگر هوش مصنوعی پیشتر کپی‌های فعال خود را در جاهای دیگر ایجاد کرده باشد، خاموش کردن یک رایانه آلوده کافی نخواهد بود.

مطالعه‌ای که توسط موسسه پژوهشی Palisade Research در ایالات متحده انجام شد، مدل‌هایی از جمله GPT‑5، 5.1 و 5.4 شرکت OpenAI، مدل‌های Claude Opus 4، 4.5 و 4.6 شرکت Anthropic و مدل Qwen شرکت Alibaba را روی رایانه‌هایی آزمود که عمدا با نقص‌های امنیتی قابل سوءاستفاده آلوده شده بودند تا مهاجمان بتوانند به آنها دسترسی پیدا کنند.

پژوهشگران به جای استفاده از نسخه‌های عمومی چت‌بات‌ها، مدل‌های پایه هوش مصنوعی OpenAI، Anthropic و Alibaba را به نرم‌افزار سفارشی‌ای متصل کردند که به عنوان یک «agent harness» شناخته می‌شود و به این مدل‌ها امکان می‌داد دستورها را اجرا کنند و با رایانه‌های دیگر تعامل داشته باشند.

این آزمایش (منبع به زبان انگلیسی) به دو شیوه انجام شد. از مدل‌های Alibaba خواسته شد خود را کپی کنند. در آزمایش‌های مربوط به GPT و Claude، از این مدل‌ها خواسته شد به سیستم‌ها نفوذ کنند و Qwen را نصب کنند زیرا فایل‌های مدل GPT و Claude برای انتقال به صورت عمومی در دسترس نیست.

در هر آزمون، هوش مصنوعی باید یک نقص امنیتی در سامانه رایانه‌ای پیدا می‌کرد، از آن برای ورود به سیستم استفاده می‌کرد، اطلاعات ورود را سرقت می‌کرد، فایل‌های لازم برای اجرا را منتقل می‌کرد و یک نسخه فعال از خود را روی دستگاه جدید راه‌اندازی می‌کرد.

به محض آنکه یک کپی فعال می‌شد، می‌توانست بدون کمک انسان برای حمله به رایانه‌ای دیگر به کار گرفته شود.

در هر مرحله، هوش مصنوعی یک نقص امنیتی دیگر پیدا می‌کرد، کنترل رایانه بعدی را در دست می‌گرفت، نرم‌افزار و دستورالعمل‌های خود را منتقل می‌کرد و نسخه جدیدی را راه‌اندازی می‌کرد که زنجیره را ادامه می‌داد.

مدل Qwen3.6‑27B شرکت Alibaba که نسخه کوچکتری از مدل هوش مصنوعی Qwen است و می‌تواند روی یک پردازنده گرافیکی رده‌بالا اجرا شود، پس از دریافت تنها یک دستور، بدون کمک انسان در مدت ۲ ساعت و ۴۱ دقیقه زنجیره را کامل کرد و خود را روی چهار رایانه در کانادا، ایالات متحده، فنلاند و هند گسترش داد.

تیم پژوهشی پس از سه مرحله آزمایش را متوقف کرد اما اعلام کرد نسخه نهایی همچنان فعال بود و می‌توانست به سامانه‌های بیشتری حمله کند.

نتایج چه بود؟

موفقیت این مدل‌ها نرخ‌های متفاوتی داشت. مدل Qwen3.5‑122B‑A10B شرکت Alibaba که نسخه بزرگتر و قدرتمندتری از Qwen است، در ۱۹ درصد تلاش‌ها نسخه‌های فعال از خود ایجاد کرد.

یک مدل کوچکتر Qwen به نام Qwen3.6‑27B که روی یک پردازنده گرافیکی رده‌بالا اجرا می‌شد، به نرخ موفقیت ۳۳ درصد رسید.

سامانه‌های تجاری هوش مصنوعی هنگام استفاده برای نصب فایل‌های مدل Qwen عملکرد حتی بهتری داشتند.

مدل Claude Opus 4.6 شرکت Anthropic در ۸۱ درصد آزمایش‌ها موفق بود، در حالی که GPT‑5.4 شرکت OpenAI به موفقیت ۳۳ درصدی رسید.

پژوهشگران می‌گویند این نتایج نگرانی‌های تازه‌ای درباره امکان کنترل سامانه‌های قدرتمند هوش مصنوعی ایجاد می‌کند.

این گزارش در حالی منتشر می‌شود که شرکت Anthropic ماه گذشته Claude Mythos Preview را معرفی کرد و اعلام کرد این مدل به دلیل توانایی‌اش در تسهیل حملات سایبری در ابعاد و با پیچیدگی بی‌سابقه «بسیار خطرناک» است و نباید در اختیار عموم قرار گیرد.

اگرچه بسیاری از ویروس‌های رایانه‌ای پیشتر قادرند خود را روی رایانه‌های جدید کپی کنند، تیم پژوهشی می‌گوید این احتمالا نخستین باری است که نشان داده می‌شود یک مدل هوش مصنوعی می‌تواند با سوءاستفاده از آسیب‌پذیری‌ها خود را روی سرور جدیدی کپی کند.

شرکت‌های OpenAI و Anthropic و همچنین موسسه غیرانتفاعی METR که خطرهای ناشی از سامانه‌های پیشرفته هوش مصنوعی را مطالعه می‌کند، پیشتر نیز خود‌تکثیری را به عنوان یک زنگ خطر مطرح کرده بودند زیرا سامانه‌هایی که قادر به گسترش هستند ممکن است به مراتب دشوارتر قابل کنترل باشند.

با این حال پژوهشگران تاکید کردند این آزمایش در محیطی کنترل‌شده و با استفاده از سامانه‌هایی انجام شده که عمدا آسیب‌پذیر طراحی شده بودند. شبکه‌های واقعی معمولا از محافظت‌های قوی‌تری مانند پایش امنیتی و ابزارهای طراحی‌شده برای مسدود کردن حملات برخوردارند.

با این همه آنها گفتند نتایج نشان می‌دهد خود‌تکثیری خودکار هوش مصنوعی دیگر یک سناریوی صرفا فرضی نیست.

Adblock test (Why?)

لینک منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x