اخبار دانش و فناوری

آنتروپیک و اوپن‌AI برای جلوگیری از سواستفاده فاجعه‌بار متخصصان تسلیحات جذب می‌کنند

نگارش از&nbspAnna Desmarais

تاریخ انتشار

دو شرکت فعال در حوزه هوش مصنوعی Anthropic و OpenAI طبق آگهی‌های شغلی خود به‌دنبال استخدام کارشناسان سلاح و مواد منفجره هستند تا از سواستفاده از فناوری خود جلوگیری کنند.

Anthropic در یک پست لینکدین (منبع به زبان انگلیسی) اعلام کرده است که در جست‌وجوی یک کارشناس سیاست‌گذاری در حوزه سلاح‌های شیمیایی و انفجارهاست تا با شکل دادن به نحوه برخورد سیستم‌های هوش مصنوعی این شرکت با اطلاعات حساس در این حوزه‌ها از «سواستفاده فاجعه‌بار» از فناوری خود جلوگیری کند.

فردی که در Anthropic استخدام شود سازوکارهای حفاظتی مربوط به نحوه واکنش مدل‌های هوش مصنوعی به درخواست‌ها درباره سلاح‌های شیمیایی و مواد منفجره را طراحی و پایش خواهد کرد. او همچنین باید در برابر هر گونه تشدید درخواست‌ها درباره سلاح و انفجار که Anthropic شناسایی کند «واکنش سریع» نشان دهد.

متقاضیان باید دست‌کم پنج سال سابقه در «دفاع در برابر سلاح‌های شیمیایی و/یا مواد منفجره» و همچنین آشنایی با «ابزارهای پخش رادیولوژیک» یا همان بمب‌های کثیف داشته باشند. در شرح این شغل آمده است که فرد استخدام‌شده باید ارزیابی‌های ریسک جدیدی طراحی کند که مدیران شرکت بتوانند «در هنگام عرضه‌های پرخطر» به آن اعتماد کنند.

در آگهی شغلی OpenAI که اوایل ماه جاری منتشر شد آمده است که این شرکت به‌دنبال جذب پژوهشگران برای پیوستن به تیم «آمادگی» خود است؛ تیمی که «ریسک‌های فاجعه‌بار مرتبط با مدل‌های پیشرفته و مرزی هوش مصنوعی» را رصد می‌کند.

این شرکت همچنین برای استخدام یک «تهدید‌مدل‌ساز» آگهی داده است؛ سمتی که به یک نفر اختیار اصلی «شناسایی، مدل‌سازی و پیش‌بینی ریسک‌های مرزی» را می‌دهد و او را به «گره مرکزی پیونددهنده دیدگاه‌های فنی، حکمرانی و سیاست‌گذاری درباره اولویت‌بندی، تمرکز و منطق رویکرد ما به ریسک‌های مرزی ناشی از هوش مصنوعی» تبدیل می‌کند.

یورونیوز نکست برای دریافت توضیح درباره این آگهی‌های شغلی با Anthropic و OpenAI تماس گرفت اما پاسخی فوری دریافت نکرد.

این استخدام‌ها در حالی مطرح شده که Anthropic پس از آن‌که دولت آمریکا این شرکت را «ریسک زنجیره تامین» نامید، علیه این تصمیم اقدام حقوقی کرده است؛ عنوانی که به دولت اجازه می‌دهد قراردادها را متوقف کند یا به نهادها دستور دهد با این شرکت همکاری نکنند.

این تنش از ۲۴ فوریه آغاز شد؛ زمانی که وزارت جنگ آمریکا (DOW) خواستار دسترسی نامحدود به چت‌بات کلود متعلق به Anthropic شد.

داریو آمودی، مدیرعامل Anthropic، گفت قراردادهای وزارت جنگ نباید مواردی را شامل شود که در آن کلود برای نظارت گسترده داخلی به کار گرفته می‌شود یا در سامانه‌های کاملا خودکار تسلیحاتی ادغام می‌شود.

کمی بعد از بروز این تنش با Anthropic، شرکت OpenAI توافقی با وزارت جنگ آمریکا (DOW) امضا کرد تا از هوش مصنوعی خود در محیط‌های طبقه‌بندی‌شده استفاده شود. به گفته این شرکت، در این توافق خطوط قرمز سخت‌گیرانه‌ای در نظر گرفته شده است؛ از جمله ممنوعیت استفاده از سیستم‌های آن برای نظارت گسترده یا تسلیحات خودکار.

Adblock test (Why?)

لینک منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x