اخبار دانش و فناوری

زندگی پس از چت‌بات‌ها: «وگان‌های هوش مصنوعی» که واقعیت مجازی را نمی‌پذیرند

یک مسابقه در بازی ویدیویی «وارفریم» کاسه صبر بلا را لبریز کرد.

به همه اعضای تیم بازی او فقط سه روز فرصت داده بودند تا اثر هنری خود را ارسال کنند. با اینکه از ضرب‌الاجلِ تنگ نگران بود، پا پس نکشید؛ تا وقتی که مسابقه اثری تولیدشده با هوش مصنوعی را پذیرفت.

او که 21 سال دارد و اهل جمهوری چک است، به یورونیوز نکست گفت: «اگر هوش مصنوعی در مسابقه پذیرفته نمی‌شد، شاید سعی می‌کردم شرکت کنم، اما این بار برایم نوعی تحقیر بود: رقابت با کسی که حتی یک قطره تلاش برای این تصویر نکرده‌است.»

«یکی از دلایلی که استفاده از هوش مصنوعی مولد را کنار گذاشتم این است که از نظر اخلاقی نادرست است. اگر من، به‌عنوان یک هنرمند، به استفاده از آن ادامه می‌دادم، نوعی خیانت بود. من سال‌ها صرفِ یادگیری و ارتقای مهارت‌هایم کرده‌ام و بعد بیایم از چیزی استفاده کنم که نتایج کارِ دیگرانی مثل خودم را می‌دزدد.»

بلا یکی از شمارِ رو به رشد «وگان‌های هوش مصنوعی» است؛ عنوانی تازه برای کسانی که تصمیم گرفته‌اند از همه انواعِ هوش مصنوعی مولد دوری کنند؛ سامانه‌هایی که با مجموعه‌داده‌های عظیم آموزش می‌بینند تا متن، تصویر، موسیقی و چیزهای دیگر بسازند.

این جنبش از زمان راه‌اندازی چت‌جی‌پی‌تیِ اوپن‌ای‌آی در سال 2022 پیوسته در حال رشد بوده و جامعهِ ضدِ هوش مصنوعی در ردیت اکنون بیش از 71 هزار عضو دارد.

مشابه وگان بودن، استدلال‌ها عمدتا اخلاقی و زیست‌محیطی است.

بر اساس یک مطالعه 2023 حتی یک گفت‌وگوی کوتاه با چت‌جی‌پی‌تی می‌تواند معادل یک بطری آب مصرف کند. خزشِ این فناوری بر آثار خلاقانه باعث شده هنرمندان، نویسندگان، فیلمسازان و موسیقی‌دانان مشهور در اعتراض متحد شوند .

مارک، 23 ساله و ساکن اسپانیا که از هوش مصنوعی پرهیز می‌کند، به یورونیوز نکست گفت: «[هوش مصنوعی مولد] بی‌وقفه و بدون رضایت از همه چیز می‌دزدد، حریم خصوصی را نقض می‌کند و از این راه پول به دست می‌آورد.»

«ابزاری در خدمت سرمایه‌داری است برای حفظِ استثمارِ کارگران یا حتی ارتقای آن به مرحله‌ای بالاتر.»

در کنار این نگرانی‌ها، ترسی عمیق‌تر هم هست از اینکه هوش مصنوعی چگونه ممکن است به سلامتِ روان و رشدِ شناختیِ ما آسیب بزند و وابستگی به راه‌حل‌های فوری ایجاد کند که اندیشه انتقادی را از ما می‌گیرد.

یک مطالعه اخیر و کوچک از سوی موسسه فناوری ماساچوست (MIT) نیز این موضوع را تایید می‌کند و گزارش می‌دهد شرکت‌کنندگانی که از چت‌جی‌پی‌تی برای نوشتن انشا استفاده کردند، نسبت به کسانی که از این ابزار استفاده نکردند، درگیریِ مغزیِ کمتری داشتند.

این مطالعه همچنین نشان داد کسانی که از چت‌جی‌پی‌تی استفاده کردند برای نقل‌قول از متنی که همین لحظه تولید کرده بودند هم مشکل داشتند و در «سطوح عصبی، زبانی و رفتاری» عملکرد ضعیف‌تری نشان دادند.

به گفته ناتالیا کاسمینا، هم‌نویسنده این مطالعه و پژوهشگر گروه «رابط‌های سیال» در مدیا لبِ MIT، این موضوع می‌تواند پیامدهای بزرگ‌تری بر یادگیری، اعتمادبه‌نفس و نحوه استفاده انسان‌ها از هوش مصنوعی در موقعیت‌های مهم داشته باشد.

او گفت: «اگر فرد واقعا به یاد نیاورد چه نوشته، حسِ مالکیت هم نخواهد داشت، و در نهایت یعنی برایش مهم نیست. اگر این فقط یک آزمایشِ آزمایشگاهی نباشد چه؟ اگر در یک موقعیت واقعی باشد، مثلا مساله مرگ و زندگی؟ بعضی شغل‌ها چنین چیزی را اقتضا می‌کنند.»

برای لوسی، 22 ساله و «وگان هوش مصنوعی» از اسپانیا، نگرانی‌ها حول تمایل برخی چت‌بات‌ها به چاپلوسی می‌چرخد؛ تمایلی که می‌تواند به تایید ایده‌های هذیانی و حتی خطرناک منجر شود.

او گفت: «احساس می‌کنم عصر دیجیتال همین حالا هم کلی حماقت به بار آورده، فقط چون مردم اینترنت و موبایل را بد استفاده می‌کنند، به‌جای اینکه از آنها برای یاد گرفتن چیزها بهره ببرند. اما اینکه مردم نادان باشند و چت‌بات‌ها هم مدام به آنها بگویند حق با شماست و نابغه‌اید؟ این نگران‌کننده است.»

دشواری‌های پرهیز از هوش مصنوعی

هوش مصنوعی مولد با سرعتی بالا در حال پیشرفت است و به مشاغل، آموزش، اپلیکیشن‌های شبکه‌های اجتماعی و حتی روابطِ ما نفوذ کرده‌است. همین، پرهیز از آن را برای مردم هرچه دشوارتر کرده‌است.

مارک که پیش‌تر در امنیتِ سایبریِ هوش مصنوعی کار می‌کرد، گفت: «باید ذهنیت محکمی داشته باشید، اما من توانسته‌ام از آن دور بمانم.»

او افزود: «دور ماندن از آن در دانشگاه مخصوصا سخت است، وقتی بیشترِ دانشجویان و حتی استادان، برای همه چیز به‌طور منظم از آن استفاده می‌کنند»، و اضافه کرد که این موضوع در خانواده‌اش هم شکاف ایجاد کرده، چون آنها به «ساده‌سازیِ» هوش مصنوعی معتادند.

از لوسی هم در دوره کارآموزی‌اش در یک شرکتِ طراحی گرافیک «به شدت» می‌خواهند از هوش مصنوعی استفاده کند؛ با وجودِ نتایجِ اغلب پرسش‌برانگیزش.

او گفت: «اخیرا یک مشتری از ما خواست دستیارِ هوش مصنوعی‌شان را انیمیشن کنیم (یک نقاشی خیلی زشت از یک زن با تمامِ زشتیِ براقِ هوش مصنوعی). داریم به‌زحمت می‌افتیم، چون ویدئوهایِ هوش مصنوعی برایش دست‌های خیلی بزرگ و چیزهای دیگر می‌سازد. خیلی حسِ دره وهم‌آور دارد.»

با این حال، حتی وقتی زندگیِ حرفه‌ای ما استفاده از این فناوری را اقتضا می‌کند، کاسمینا معتقد است باید حقِ انتخابِ زمان و نحوه استفاده از آن را حفظ کنیم و این حقوق را با دقت به‌کار بگیریم.

او گفت: «از سر کارم و برای اجرای مطالعات با آن تعامل می‌کنم؟ بله، قطعا. آیا وقتی یک قابلیت تازه یا ادعای جدیدی ظاهر می‌شود آن را بررسی می‌کنیم؟ بله. اما برای دیگر کاربردهای شخصی یا حرفه‌ای؟ شخصا نیازی به آن نمی‌بینم.»

او گفت: «برخی از کاربردهای [هوش مصنوعی مولد] البته خیلی جالب‌اند و از بقیه هم جالب‌تر. اما لازم نیست برای بازنویسیِ یک ایمیل هفت درخت بسوزانم و هفت گالن آب هدر بدهم.»

آیا هوش مصنوعی می‌تواند اخلاقی باشد؟

برای بیشترِ «وگان‌های هوش مصنوعی»، باورِ اصلی این است که هوش مصنوعی ذاتا غیراخلاقی است.

در حالی که مارک معتقد است استفاده از آن باید «ممنوع و با قانون مجازات شود»، دیگران همچنان طرفدارِ مقرراتِ سختگیرانه‌تری هستند که اخلاق را بر سود مقدم بدارد.

لوسی گفت: «هوش مصنوعی کاملا می‌تواند اخلاقی باشد اگر موادِ آموزشی‌اش به‌صورت اخلاقی تامین شود و برای آن از کارگرانِ بهره‌کشیده‌شدهِ کنیا استفاده نکنند.»

«هزینه انرژی به احتمال زیاد در هر حال سرسام‌آور خواهد بود، اما انکار نمی‌کنم خودم هم سرگرمی‌هایی دارم که بسیار پرمصرف یا آلاینده‌اند؛ مثل بازی‌های کامپیوتری، خریدِ اقلام از خارج برای مجموعه‌داری و چیزهایی از این دست.»

در زمانی که در برخی کشورها محدودیت‌های سنی در پلتفرم‌های شبکه‌های اجتماعی اعمال می‌شود و استرالیا ممنوعیت برای زیرِ 16 سال‌ها وضع کرده، کاسمینا معتقد است با هوش مصنوعی مولد هم باید مشابهِ آن رفتار شود.

او گفت: «فکر می‌کنم باید برای افرادِ زیرِ سن قانونی کاملا ممنوع باشد. و منظورم از زیرِ سن قانونی، همه کسانی است که تا 18 سالگی در مدرسه هستند»، و افزود: «و در محیط‌های آموزشی، نباید استفاده از آن به شما تحمیل شود.»

همزمان که با جاافتادنِ هوش مصنوعی در زندگی‌مان دست‌وپنجه نرم می‌کنیم، دست‌کم یک یادآوریِ دلگرم‌کننده از سویِ کسانی که پرهیز را برگزیده‌اند وجود دارد: شگفتیِ واقعیت بی‌همتاست.

لوسی گفت: «هوش مصنوعی خیلی تکراری و سطحی است. وقتی نو بودنِ آن فروکش کند، متوجه می‌شوید سرگرمیِ انسانی در مقایسه با آن چقدر خوب است.»

افرادِ موسوم به «وگانِ هوش مصنوعی» که در این گزارش نقل‌قول شده‌اند پذیرفتند دربارهِ تجربهِ پرهیز از هوش مصنوعی با یورونیوز نکست صحبت کنند، اما برای حفظِ حریم خصوصی نخواستند نامِ واقعی‌شان منتشر شود.

Adblock test (Why?)

لینک منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x