روبات ها قادر به فریب دانشمندان هستند

طی سال های اخیر شاهد ظهور روبات‌ های مبتنی و بر هوش مصنوعی و مانند ChatGPT و برنامه هایی بودیم که قادر به موسیقی، متن و … بودند حتی آثار تولید شده توسط هوش مصنوعی به مراسم مهمی چون گرمی ارسال شدند. برخی از این آثار به قدری واقعی هستند که به سادگی کارشناسان و دانشمندان را فریب می دهند.

به گزارش سیناپرس، تیمی از محققان دانشگاه فلوریدا جنوبی در بررسی های خود دریافتند: محتوای نوشتاری تولید شده توسط هوش مصنوعی ممکن است از نوشته های انسانی قابل تشخیص نباشد.

در طول این تحقیقات، پژوهشگران گروهی از برجسته ترین کارشناسان زبان ‌شناسی را گرد هم آورده و به آن ها آثار خلق شده توسط انسان و هوش مصنوعی را به نوعی دادند که از قبل نویسنده متون مشخص نبودند. نتایج نشان داد؛ علی ‌رغم مطالعه حرفه‌ ای الگوهای زبان، حتی این گروه از متخصصان مجلات زبان‌شناسی برتر جهان، شناسایی محتوای نوشته ‌شده با هوش مصنوعی را چالش ‌برانگیز دانستند. در مجموع، آنها فقط در ۳۹ درصد مواقع توانستند تمایز صحیح را بین این دو گروه ایجاد کنند.

متیو کسلر، از محققان این تیم مطالعاتی در رابطه با موضوع فوق گفت: ما فکر می‌کردیم اگر کسی می‌تواند نوشته‌های تولید شده توسط انسان را شناسایی کند، باید متخصص در زبان ‌شناسی باشد که زمان خود را صرف مطالعه الگوهای زبانی و سایر جنبه‌ های ارتباط انسانی کرده ‌اند.

در این مطالعات به طور خاص، هر کارشناس شرکت ‌کننده باید چهار نمونه نوشتاری را بررسی می ‌کرد. نکته قابل تامل این است که حتی یک متخصص نیز در بین افراد فوق نتوانست هر چهار مورد را به درستی شناسایی کند و ۱۳ درصد این کارشناسان نیز همه موارد را اشتباه گفته اند. بر اساس این نتایج، نویسندگان مطالعه چاره‌ای نداشتند جز اینکه به این نتیجه برسند که اکثر اساتید قادر به تشخیص نوشته‌ های خود محققین از محتوای تولید شده توسط یک مدل زبان مبتنی بر هوش مصنوعی مانند ChatGPT نیستند.

به گزارش سیناپرس، متخصصان زبان شناسی سعی کردند از دلایل منطقی و شناسایی برخی ویژگی های زبانی و سبکی برای قضاوت در مورد نمونه های نوشتاری استفاده کنند. با این حال، در نهایت، این رویکردها تا حد زیادی ناموفق بوده و تنها  ۳۸.۹ درصد موارد شناسایی شد.

کسلر در ادامه توضیحاتش می ‌افزاید: موضوع جالب ‌تر این بود که از آن ها پرسیدیم چگونه تشخیص دادند متنی توسط هوش مصنوعی یا یک انسان نوشته شده است. آن ها دلایل بسیار منطقی داشتند، اما بارها و بارها، دقیق و سازگار نبودند.

در مجموع، محققان به این نتیجه رسیدند که چت ربات‌هایی مانند ChatGPT واقعاً می‌ توانند ژانرهای کوتاه را در همان سطح بیشتر انسان‌ ها بنویسند البته هوش مصنوعی معمولاً خطاهای گرامری ندارد  با این حال، نویسندگان مطالعه خاطرنشان می ‌کنند که وقتی صحبت از اشکال طولانی‌ تر نوشتن به میان می ‌آید، هنوز هم انسان ‌ها برتر هستند.

شرح کامل این مطالعه در آخرین شماره مجله Research Methods in Applied Linguistics منتشر شده است.

مترجم: احسان محمدحسینی

نوشته روبات ها قادر به فریب دانشمندان هستند اولین بار در خبرگزاری سیناپرس | اخبار علمی ایران و جهان. پدیدار شد.

لینک منبع خبر


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.