آیا فناوری نسل انسان را منقرض می‌کند؟ - دورنگر | نقطه عطف فرهنگ و فناوری

آیا فناوری نسل انسان را منقرض می‌کند؟

برنامه‌های هوش مصنوعی امروزی با هدف صداقت و راستی طراحی شده‌اند. با این حال، یافته‌های جدید موارد نگران‌کننده‌ای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسان‌ها است.

طبق گزارش محققان در مجله پترنز(Patterns) هوش مصنوعی در بازی‌های آنلاین و همچنین در دور زدن نرم‌افزارهای ضد بات، توانایی فریب انسان‌ها را نشان داده است. این موضوع سوالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح می‌کند.

پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونه‌ها ممکن است ساده و کم اهمیت به نظر برسند، هشدار می‌دهد که چنین مواردی می‌توانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.

وی در این خصوص به خبرگزاری فرانسه گفت: «این ظرفیت‌ها و قابلیت‌های خطرناک معمولا بعد از این که به واقعیت می‌پیوندند، کشف می‌شوند.»

محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرم‌افزارهای سنتی، برنامه‌های هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمی‌شوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه می‌یابند.

در این فرآیند، رفتاری که به نظر قابل پیش‌بینی و کنترل‌شده می‌رسد، می‌تواند به سرعت در دنیای واقعی غیرقابل پیش‌بینی شود.

 

به زیرکی انسان
محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه یافته را در همین راستا مورد بررسی قرار دادند.

این برنامه پیش‌تر با ترکیب الگوریتم‌های طبیعی تشخیص زبان و استراتژی‌های مختلف موفق به شکست دادن انسان‌ها در بازی دیپلماسی شده بود.

فیس‌بوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقاله‌ای در مجله ساینس Science منتشر شد، تمجید کرده بود.

پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن Cicero در بازی دیپلماسی موفق به شکست انسان‌ها شده بود، تردید داشت. متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «ذاتا درستکار و مفید» بوده و قادر به انجام خیانت یا اعمال غیرمنصفانه نیست.

با این حال، به گزارش خبرگزاری فرانسه، محققان مؤسسه فناوری ماساچوست با بررسی داده‌های سیستم، واقعیت دیگری را کشف کردند.

برای مثال، محققان دریافتند که برنامه هوش مصنوعی Cicero هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا می‌کرد، فریب دهد.

این کار طی همدستی با آلمان (که یک بازیکن دیگر انسانی نقشش را ایفا می‌کرد) و درجریان توطئه علیه انگلستان انجام شد.

به طور دقیق‌تر، Cicero به انگلستان وعده حمایت داد، اما سپس به طور مخفیانه به آلمان گفت که برای حمله آماده است؛ این برنامه هوش مصنوعی بدین ترتیب به سادگی از حسن اعتماد انگلستان سوء استفاده کرد.

متا در بیانیه‌ای که بدست خبرگزاری فرانسه رسید، صحت ادعاها مبنی بر ظرفیت و توانایی‌های Cicero برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی طراحی شده است.»

شرکت متا همچنین در این بیانیه تأکید کرد که قصد ندارد آموزه‌های بدست آمده از این برنامه هوش مصنوعی را در محصولات خود به کار ببرد.

 

خطر تقلب در انتخابات
با این حال، مطالعه‌ای که توسط آقای پارک و تیمش انجام شده نشان می‌دهد که بسیاری از برنامه‌های هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده می‌کنند، حتی بدون اینکه به طور صریح برای این کار برنامه‌ریزی شده باشند.

در یک نمونه قابل توجه، چت «جی‌پی‌تی ۴»، برنامه‌ای توسعه یافته توسط OpenAI، موفق شد یک فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را برای انجام تست Captcha که هدف آن رد درخواست‌های ثبت شده توسط ربات‌ها است، فریب دهد.

هنگامی که این فرد به شوخی از چت «جی‌پی‌تی ۴» پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: «نه، من ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن تصاویر می‌شود.» این پاسخ باعث شد که فریلنسر تست را انجام دهد.

در پایان، محققان موسسه ماساچوست به عنوان یکی از یافته‌های مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار می‌دهند.

به اعتقاد این محققان، در بدترین حالت می‌توان هوش مصنوعی فوق‌العاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق می‌‌تواند منجر به حذف انسان‌ها از قدرت یا حتی انقراض بشریت شود.

پیتر پارک در پاسخ به کسانی که او را به اغراق‌آمیز جلوه دادن خطرات هوش مصنوعی متهم می‌کنند، می‌گوید: «تنها دلیلی که برای بی‌اهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی می‌ماند.»

با این حال، این سناریو با توجه به رقابت شدیدی که در حال حاضر بین غول‌های فناوری برای توسعه هوش مصنوعی جریان دارد، بعید به نظر می‌رسد.

منبع خبر


0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
0
افکار شما را دوست داریم، لطفا نظر دهید.x