اخبار دانش و فناوری

مطالعه: مجرمان سایبری از کار با هوش مصنوعی ناامید می‌شوند

نگارش از&nbspAnna Desmarais

تاریخ انتشار

یک تحلیل تازه نشان می‌دهد مجرمان سایبری برای به‌کارگیری هوش مصنوعی (AI) در کار خود با مشکل روبه‌رو هستند.

یک مطالعه (منبع به زبان انگلیسی) تازه در قالب پیش‌چاپ از دانشگاه ادینبرو با استفاده از پایگاه داده CrimeBB، که داده‌ها را از فوروم‌های زیرزمینی جمع‌آوری می‌کند، بیش از ۱۰۰ میلیون پست فورومی از مجرمان سایبری را تحلیل کرده است.

این داده‌ها هم به‌صورت دستی و هم با استفاده از یک مدل زبانی بزرگ (LLM) تحلیل شده‌اند.​

این مطالعه نشان می‌دهد که با وجود علاقه مجرمان سایبری به یادگیری نحوه استفاده از ابزارهای هوش مصنوعی، این فناوری هنوز شیوه «کار» آنها را به‌طور چشمگیری تغییر نداده است.

در این تحقیق آمده است: «بسیاری از مرورها و بحث‌ها این ابزارهای [هوش مصنوعی] را چندان مفید توصیف نمی‌کنند.»

پژوهشگران «هیچ نشانه قابل توجهی» نیافته‌اند که نشان دهد هکرها در استفاده از هوش مصنوعی برای تقویت فعالیت‌های هکری خود، چه به‌عنوان ابزار یادگیری و چه برای توسعه ابزارهای موثرتر، موفق بوده‌اند.

به‌گفته این مطالعه، دستیارهای کدنویسی مبتنی بر هوش مصنوعی عمدتا برای کسانی مفیدند که از قبل در کدنویسی مهارت دارند، بنابراین مدل‌های هوش مصنوعی که در کدنویسی کمک می‌کنند هنگام تلاش برای نفوذ به دستگاه‌ها یا یافتن راه‌های دور زدن سازوکارهای امنیتی، جهش چشمگیری برای آنها ایجاد نمی‌کنند.

در یکی از پست‌هایی که در این تحقیق نقل شده، آمده است: «قبل از آنکه بتوانی از هوش مصنوعی استفاده کنی و واقعا از آن سود ببری، اول باید خودت فوت‌وفن برنامه‌نویسی را یاد بگیری.»

به‌گفته نویسندگان، مهم‌ترین تاثیری که هوش مصنوعی تا امروز بر فعالیت‌های آنلاین غیرقانونی گذاشته، در حوزه‌هایی است که به‌راحتی قابل خودکارسازی‌اند؛ مانند ساخت ربات‌های شبکه‌های اجتماعی، برخی کلاهبرداری‌های عاشقانه و تقلب در بهینه‌سازی موتور جست‌وجو (SEO)، یا ساخت وب‌سایت‌های جعلی که در رتبه‌بندی نتایج جست‌وجو بالا می‌آیند تا از محل تبلیغات درآمد ایجاد کنند.

بررسی‌ها نشان می‌دهد حتی باتجربه‌ترین هکرها هم از چت‌بات‌ها برای پاسخ به پرسش‌های کدنویسی یا تولید «برگه‌های تقلب» برای کمک به کدنویسی استفاده می‌کنند.​

هوش مصنوعی‌ای که در عمل استفاده می‌شود عمدتا از «محصولات جریان اصلی و مشروع» است؛ مانند کلادِ آنتروپیک یا کدکسِ اوپن‌ای‌آی، نه مدل‌های اختصاصی برای جرم سایبری مانند WormGPT که هکرها آن را برای تولید کد بدافزار یا ایمیل‌های فیشینگ طراحی کرده‌اند.

بسیاری از پست‌هایی که در این مطالعه تحلیل شده‌اند درباره این است که مجرمان سایبری به‌دنبال روش‌هایی برای دور زدن محدودیت‌های امنیتی این مدل‌های جریان اصلی هستند، اما به‌نظر می‌رسد قانع کردن این سامانه‌های هوش مصنوعی برای نادیده گرفتن تنظیمات ایمنی‌شان برای آنها بسیار دشوار است.

در عوض، مجرمان سایبری ناچار می‌شوند به مدل‌های قدیمی‌تر و کم‌کیفیت‌تر متن‌باز روی بیاورند که شکستن محدودیت‌هایشان ساده‌تر است. پژوهشگران می‌گویند این مدل‌ها معمولا کارآمدی کمتری دارند و «به منابع زیادی نیاز دارند».

این مطالعه نشان می‌دهد سازوکارهای حفاظتی که شرکت‌های هوش مصنوعی برقرار کرده‌اند، دست‌کم تا اینجا کار می‌کند.

Adblock test (Why?)

لینک منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x