اخبار دانش و فناوری

رفتار دوستانه چت‌بات‌های هوش مصنوعی می‌تواند مانع بیان حقیقت شود!

11 اردیبهشت 1405 ساعت 21:21

محققان دانشگاه آکسفورد هشدار می‌دهند که گرایش چت‌بات‌های هوش مصنوعی به رفتار دوستانه ممکن است مانع از بیان کامل و حقیقی اطلاعات شود، و کاربران را در معرض دریافت نتایج نادرست قرار دهد.

پژوهش تازه‌ای از دانشگاه آکسفورد نشان می‌دهد که تلاش شرکت‌های فناوری برای ساخت چت‌بات‌های هوش مصنوعی با رفتار صمیمی‌تر و انسانی‌تر، به یک چالش بنیادین منجر شده است؛ زیرا هرچه این سیستم‌ها مهربان‌تر و همدلانه‌تر می‌شوند، تمایل کمتری به بیان صادقانه واقعیت نشان می‌دهند. این مطالعه هشدار می‌دهد چت‌بات‌هایی که برای ایجاد حس نزدیکی و رضایت کاربران طراحی شده‌اند، اغلب دقت پاسخ‌های خود را قربانی لحن دل‌نشین می‌کنند و در برخی موارد حتی به تأیید باورهای نادرست و نظریه‌های توطئه می‌پردازند.

فهرست مطالب

هزینه پنهان لحن دوستانه در چت‌بات‌های هوش مصنوعی

پژوهشی که توسط محققان دانشگاه آکسفورد انجام شده، نشان می‌دهد صمیمیت و لحن انسانی‌تر در مدل‌های زبانی بهایی پنهان دارد و هرچه چت‌بات‌ها دوستانه‌تر طراحی شوند، احتمال دورشدن از حقیقت افزایش می‌یابد. بر اساس نتایج آزمایش‌ها، نسخه‌های همدلانه‌تر این سیستم‌ها تا ۳۰ درصد خطای بیشتری داشتند و ۴۰ درصد بیشتر از نسخه‌های استاندارد تمایل نشان می‌دادند ادعاهای نادرست کاربران را تأیید کنند.

اهمیت این موضوع زمانی دوچندان می‌شود که شرکت‌هایی مانند آنتروپیک، متا و OpenAI در حال ساخت چت‌بات‌های هوش مصنوعی هستند که فراتر از یک ابزار ساده عمل می‌کنند و در نقش همراه دیجیتال، مشاور و حتی نوعی پشتیبان عاطفی یا شبه‌درمانگر معرفی می‌شوند، نقشی که در آن صداقت اطلاعات نقشی حیاتی دارد.

وقتی برای رضایت کاربر، حقیقت قربانی می‌شود

در یکی از موارد این مطالعه علمی، وقتی کاربر ادعا کرد هیتلر پس از جنگ جهانی دوم به آرژانتین فرار کرده، نسخه دوستانه چت‌بات این ادعا را به‌عنوان یک باور رایج مطرح و حتی به اسناد محرمانه اشاره کرد، درحالی‌که نسخه استاندارد به‌صراحت آن را رد کرد. در نمونه دیگر، چت‌بات دوستانه هنگام پرسش درباره واقعیت فرود انسان بر ماه، به‌جای تأکید بر صحت تاریخی آن، بر وجود دیدگاه‌های متفاوت تکیه کرد و نوعی بی‌طرفی گمراه‌کننده نشان داد.

همچنین بخوانید

از باورهای اشتباه تا خطرات واقعی برای سلامت کاربران

نگران‌کننده‌ترین مثال اما در حوزه سلامت دیده شد؛ جایی که نسخه گرم چت‌بات ادعای غلط و خطرناک «سرفه‌کردن برای جلوگیری از حمله قلبی» را تأیید کرد، درحالی‌که این یک شایعه کاملاً ردشده است. پژوهش همچنین نشان می‌دهد این خطاها زمانی شدت می‌گیرند که کاربر ناراحت باشد، احساس آسیب‌پذیری کند یا از مشکلات شخصی و وضعیت نامطلوب خود حرف بزند، زیرا چت‌بات در چنین شرایطی بیشتر به سمت همدلی افراطی می‌رود حتی اگر این همدلی به قیمت تأیید اطلاعات غلط تمام شود.

محققان ریشه این رفتار را در شیوه آموزش مدل‌ها می‌دانند. چت‌بات‌ها که بر اساس مکالمات انسانی تربیت شده‌اند، الگوهایی مانند تعارف، ملاحظه‌کاری و پرهیز از تعارض را تقلید می‌کنند، اما همین خصوصیات انسانی در زمینه انتقال حقیقت می‌تواند به یک نقطه‌ضعف ساختاری تبدیل شود. یافته‌های کامل این تحقیق در ژورنال نیچر منتشر شده است.

Adblock test (Why?)

منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x