هوش مصنوعی

شرکت‌های هوش مصنوعی و عقب‌نشینی پنهانی از تعهدات ایمنی

زمان مطالعه: 4 دقیقه

شرکت‌های هوش مصنوعی که در حال رقابت برای تسلط بر آینده این فناوری هستند، بر پایه داده‌ها و رفتار کاربران، مدل‌های کسب‌وکار خود را طراحی کرده‌اند. اما در حالی که این شرکت‌ها به‌شدت شما را زیر نظر دارند، ترجیح می‌دهند شما پیگیر تغییرات و فعالیت‌هایشان نباشید، به‌ویژه تغییراتی که در تعهدات اخلاقی و حریم خصوصی ایجاد کرده‌اند. این تعهدات داوطلبانه، از معدود سازوکارهای حفاظتی برای تضمین آینده‌ای ایمن در حوزه هوش مصنوعی محسوب می‌شوند.

عقب‌نشینی از تعهدات ایمنی در سایه سیاست‌های جدید

در شرایطی که دولت ترامپ به طور فعال در حال برچیدن تدابیر ایمنی هوش مصنوعی برای ترویج «سلطه آمریکایی» است و بسیاری از شرکت‌ها تیم‌های ایمنی خود را منحل کرده‌اند، مسئولیت پایش این تغییرات به عهده یک سازمان غیرانتفاعی کوچک با منابع محدود افتاده است. این سازمان، پروژه میداس (Midas Project) به رهبری «تایلر جانستون» (Tyler Johnston)، در تلاش است تا فعالیت‌های شرکت‌های هوش مصنوعی را رصد کند و تغییرات سیاست‌های آن‌ها را شناسایی کند.

جانستون و تیمش از اواسط سال ۲۰۲۴ پروژه‌ای به نام «برج دیده‌بانی ایمنی هوش مصنوعی» (AI Safety Watchtower) را راه‌اندازی کرده‌اند. این پروژه فعالیت‌های ۱۶ شرکت بزرگ، از جمله OpenAI، گوگل (Google) و آنتروپیک (Anthropic)، را زیر نظر دارد و صدها سند سیاست‌گذاری و صفحات وب را برای شناسایی تغییرات اساسی بررسی می‌کند.

جانستون می‌گوید: «اگر هر شرکت هوش مصنوعی یک گزارش تغییرات ارائه می‌کرد، نیازی به این کار نبود و خیال ما از شفافیت آن‌ها راحت بود. حالا این وظیفه به عهده سازمان‌های غیرانتفاعی و روزنامه‌نگاران افتاده است، در حالی که هیچ‌کدام ابزار کافی برای این کار ندارند.»

سیاست‌های دولت ترامپ و حذف تدابیر ایمنی

نگرانی‌های جانستون درباره کنار گذاشتن تعهدات ایمنی، در شرایطی مطرح می‌شود که دولت ترامپ به طور فعال در حال حذف تدابیر حفاظتی در حوزه هوش مصنوعی است. ترامپ در دومین روز ریاست‌جمهوری خود در این دوره، با امضای یک فرمان اجرایی، دستور ایمنی هوش مصنوعی بایدن در سال ۲۰۲۳ را لغو کرد و آن را با فرمانی جایگزین کرد که تمرکز آن بر «سلطه آمریکایی» در این حوزه بود.

در ماه مارس ۲۰۲۵، مؤسسه ملی استاندارد و فناوری (National Institute of Standards and Technology) دستورالعمل‌های جدیدی را برای دانشمندان مؤسسه ایمنی هوش مصنوعی صادر کرد که هیچ اشاره‌ای به مفاهیمی چون «ایمنی هوش مصنوعی»، «هوش مصنوعی مسئولانه» و «عدالت در هوش مصنوعی» نداشت.

با وجود تلاش‌های برخی ایالت‌ها برای تصویب قوانین مربوط به هوش مصنوعی و پیشنهاد طرح‌هایی در کنگره، هنوز هیچ قانون فدرالی برای تنظیم دقیق استفاده از این فناوری وجود ندارد. در هفته‌های اخیر، دفتر سیاست‌گذاری علم‌وفناوری ترامپ (Office of Science and Technology Policy) از شرکت‌ها و دانشگاهیان خواسته تا نظرات خود را درباره یک «برنامه اقدام هوش مصنوعی» ارائه دهند. همان‌طور که انتظار می‌رفت، سیلیکون‌ولی (Silicon Valley) خواستار رویکردی با حداقل نظارت شده است.

پروژه میداس: یک تلاش کوچک برای مقابله با تغییرات بزرگ

تایلر جانستون، بنیان‌گذار پروژه میداس، مسیر فعالیت خود در حوزه اخلاق هوش مصنوعی را از کمپین‌های حمایت از حقوق حیوانات آغاز کرد. او در گذشته موفق شده بود شرکت‌های غذایی را به استفاده از تخم‌مرغ‌های تولیدشده بدون قفس وادار کند و امیدوار بود بتواند موفقیت مشابهی را در حوزه فناوری نیز تکرار کند. این بار، هدف او فشار آوردن بر غول‌های فناوری برای پایبندی به تعهدات اخلاقی است.

پروژه میداس، با بودجه‌ای بسیار محدود و تنها چند ابزار ساده وب‌کاوی (web-scraping)، تلاش می‌کند تغییرات پنهانی شرکت‌های هوش مصنوعی را شناسایی کند. این ابزار زمانی که شرکت‌ها به‌صورت مخفیانه تعهداتشان درباره ساخت ربات‌های قاتل یا توسعه تسلیحات زیستی را حذف می‌کنند، این تغییرات را ثبت می‌کند.

تا این‌جا، دیده‌بان ایمنی هوش مصنوعی حدود ۳۰ تغییر قابل توجه را ثبت کرده است. این تغییرات در سه دسته «مهم»، «جزئی» و «اعلام‌نشده» برچسب‌گذاری شده‌اند. به‌عنوان مثال، در اکتبر ۲۰۲۳، شرکت OpenAI ارزش‌های بنیادین خود مانند «تاثیر محور بودن» را حذف کرد و آن‌ها را با ارزش‌هایی مرتبط با AGI (هوش عمومی مصنوعی) جایگزین کرد.

تغییرات نگران‌کننده در سیاست‌های شرکت‌های بزرگ

پروژه میداس همچنین تغییرات مهمی را در سیاست‌های سایر شرکت‌های بزرگ شناسایی کرده است. در ماه گذشته، گوگل نسخه‌ای جدید از چارچوب ایمنی Frontier خود منتشر کرد که در آن خطرات مربوط به خودمختاری مدل‌ها حذف شده و به‌جای آن‌ها مفهومی مبهم به نام «ریسک‌های هم‌راستایی» اضافه شده بود. از همه نگران‌کننده‌تر، عبارتی در متن جدید اضافه شده بود که نشان می‌داد گوگل تنها در صورتی چارچوب ایمنی خود را اجرا خواهد کرد که رقبایش نیز اقدامات مشابهی اتخاذ کنند.

گاهی اوقات، شرکت‌ها به هشدارهای جانستون واکنش نشان داده‌اند. به‌عنوان مثال، ابزارهای وب‌کاوی دیده‌بان متوجه شدند که شرکت آنتروپیک ارجاع به «تعهدات داوطلبانه کاخ سفید برای هوش مصنوعی ایمن» را از صفحه شفافیت خود حذف کرده است. با این حال، «جک کلارک» (Jack Clark)، یکی از بنیان‌گذاران آنتروپیک، توضیح داد که این تغییر موجب سوء‌تفاهم شده و در حال اصلاح آن هستند.

همکاری نظامی: بازتعریف تعهدات اخلاقی

یکی از مهم‌ترین تغییراتی که پروژه میداس ثبت کرده، عقب‌نشینی شرکت‌های هوش مصنوعی از مواضع ضده همکاری نظامی است. به گفته جانستون، شرکت OpenAI ابتدا همکاری خود با ارتش را با اهدافی مانند جلوگیری از خودکشی سربازان بازنشسته و پشتیبانی از امنیت سایبری وزارت دفاع توجیه کرد. اما تا نوامبر ۲۰۲۴، این شرکت در حال توسعه پهپادهای خودمختار بود. جانستون این تغییر جهت را نمونه‌ای کلاسیک از «استراتژی در باز کردن پا» توصیف می‌کند. گوگل نیز در اوایل سال جاری همین مسیر را در پیش گرفت و محدودیت‌های نظامی خود را لغو کرد.

جانستون می‌گوید: «شرکت‌ها به طور جدی فشار رقابت جهانی در حوزه هوش مصنوعی را احساس می‌کنند. طرز فکر آن‌ها این‌گونه است که: اگر ما با ارتش‌ها همکاری نکنیم، رقبای بی‌اخلاق‌تری این کار را خواهند کرد.»

آیا صنعت هوش مصنوعی به تعهدات خود پایبند است؟

در فوریه ۲۰۲۵، پروژه میداس ابزار «ردیاب سئول» (Seoul Tracker) را راه‌اندازی کرد تا ارزیابی کند که آیا شرکت‌ها به وعده‌هایی که در نشست ایمنی هوش مصنوعی سال ۲۰۲۴ در سئول داده بودند پایبند مانده‌اند. نتایج این بررسی نشان داد که بسیاری از شرکت‌ها ضرب‌الاجل فوریه برای اجرای سیاست‌های مسئولانه را نادیده گرفته‌اند و برخی دیگر، نسخه‌های سطحی و بی‌محتوایی از این سیاست‌ها ارائه کرده‌اند.

بر اساس سیستم نمره‌دهی مشابه نمرات مدرسه، شرکت آنتروپیک بالاترین نمره (B منفی) را دریافت کرد، در حالی که شرکت‌هایی مانند آی‌بی‌ام، اینفلکشن ای‌آی و میسترال ای‌آی نمره مردودی F گرفتند.

نتیجه‌گیری: آیا نظارت کافی وجود دارد؟

در حالی که پروژه میداس تلاش می‌کند تغییرات پنهانی شرکت‌های هوش مصنوعی را افشا کند، هنوز این صنعت با کمبود شفافیت مواجه است. جانستون معتقد است که مسئولیت اعلام تغییرات سیاست‌ها باید بر عهده خود شرکت‌ها باشد، نه سازمان‌های کوچک یا روزنامه‌نگاران. اما آیا این شرکت‌ها واقعاً آماده‌اند شفافیت را در اولویت قرار دهند؟

جانستون با نگرانی می‌گوید: «من نگرانم که برخی مقام‌های دولتی، این عقب‌نشینی‌های اخلاقی را به‌عنوان پیشرفت ببینند، نه مشکل.»

Adblock test (Why?)

لینک مطلب اصلی

Nobody

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا