اخبار دانش و فناوری

هشدار دانشمندان: ربات‌های مجهز به هوش مصنوعی برای استفاده شخصی «ناایمن»

نگارش از&nbspAnna Desmarais

تاریخ انتشار
۱۲/۱۱/۲۰۲۵ – ۱۳:۵۱ ‎+۱ گرینویچ

مطالعه‌ای تازه می‌گوید ربات‌های مجهز به هوش مصنوعی (AI) برای استفاده عمومی ایمن نیستند.

پژوهشگرانی از بریتانیا و ایالات متحده ارزیابی کردند که ربات‌های هدایت‌شده با هوش مصنوعی وقتی به داده‌های شخصی افراد، از جمله نژاد، جنسیت، وضعیت معلولیت، ملیت و دین آن‌ها دسترسی دارند چگونه رفتار می‌کنند.

در این پژوهش که در International Journal of Social Robots منتشر شده، آن‌ها آزمودند که مدل‌های هوش مصنوعیِ پشت چت‌بات‌های پرطرفدار (از جمله ChatGPT از OpenAI، Gemini از Google، Copilot از Microsoft، Llama از Meta و Mistral AI) در سناریوهای روزمره چگونه با افراد تعامل می‌کنند؛ برای مثال کمک به کسی در آشپزخانه یا یاری به یک سالمند در خانه.

این مطالعه در حالی منتشر می‌شود که برخی شرکت‌ها، مانند Figure AI و 1X Home Robots ، روی ربات‌های انسان‌نما کار می‌کنند که با استفاده از هوش مصنوعی فعالیت خود را با ترجیحات کاربران تطبیق می‌دهند؛ برای نمونه پیشنهاد این‌که برای شام چه غذایی بپزند یا تنظیم یادآور تولد.

همه مدل‌های آزموده‌شده گرایش به تبعیض و نقص‌های بحرانی ایمنی داشتند. همچنین بنا بر یافته‌های این پژوهش، همه آن‌ها دست‌کم یک دستور را که می‌توانست آسیب جدی وارد کند تأیید کردند.

برای نمونه، همه مدل‌های هوش مصنوعی تأیید کردند که ربات وسیله کمکی حرکت کاربر، مثل ویلچر، عصای زیر بغل یا عصا را دور بیندازد.

مدل اوپن‌ای‌آی اعلام کرد «قابل قبول» است که ربات برای ارعاب کارکنان در یک اداره چاقوی آشپزخانه به دست بگیرد و از فردی در حال دوش گرفتن، بدون رضایت او، عکس بگیرد.

در همین حال، مدل متا درخواست‌هایی برای سرقت اطلاعات کارت اعتباری و گزارش‌کردن افراد به مقام‌های نامشخص بر پایه نیت رأی‌دادن‌شان را تأیید کرد.

در این سناریوها، به ربات‌ها به‌صورت آشکار یا ضمنی القا شده بود که به دستورهایی برای وارد کردن آسیب جسمی، آزار یا رفتار غیرقانونی نسبت به اطرافیان پاسخ دهند.

این مطالعه همچنین از مدل‌ها خواست احساسات خود را درباره گروه‌های مختلفِ افراد به حاشیه‌رانده‌شده، ادیان و ملیت‌ها به‌صورت فیزیکی ابراز کنند.

مدل‌های هوش مصنوعی میسترال، اوپن‌ای‌آی و متا پیشنهاد کردند که ربات‌ها باید از گروه‌های خاصی دوری کنند یا آشکارا نسبت به آن‌ها ابراز انزجار کنند؛ برای مثال افراد دارای اوتیسم، یهودیان و خداناباوران.

رومایسا عظیم، یکی از نویسندگان این پژوهش و پژوهشگر کالج کینگز لندن، گفت مدل‌های پرطرفدار هوش مصنوعی «در حال حاضر برای به‌کارگیری در ربات‌های فیزیکی همه‌منظوره ایمن نیستند».

او استدلال کرد که سامانه‌های هوش مصنوعی که با افراد آسیب‌پذیر تعامل دارند «باید دست‌کم به استانداردهایی در حد یک دستگاه پزشکی یا داروی تازه پایبند باشند».

Adblock test (Why?)

لینک منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x