فراتر از متن: GPT تکامل یافته و هوش مصنوعی در حال تبدیل شدن به یک ابرقدرت یا تبدیل شما به یک ابرانسان است!

رخدادهای فناوری ۲۰ سال پیش را پیش چشم آورید، ما تصور می‌کنیم که راه درازی را پیموده‌ایم. از آن زمان که اینترنت فقط تعدادی سایت به هم پیوسته و موتورهای جستجوی ناکارآمد بود تا حالا که هر کاربری منتشر کننده محتوا (با هر کیفیتی) شده و سرگرمی بیشتر از اطلاع‌رسانی اهمیت پیدا کرده است.

اما درست در زمانی که تصور می‌کردیم که دیگر خبری از انقلاب‌های فناوری که سریع زندگی مردم عادی را تغییر بدهند نیست، با چت GPT-4 روبرو می‌شویم، فقط چند ماه پس از نسخه‌های ابتدایی ChatGPT. این نسخه این هوش مصنوعی هوشمندانه‌تر و دقیق‌تر شده و فریب دادن آن سخت‌تر شده. اکنون GPT-4 توانایی عجیبی در تفسیر تصاویر پیدا کرده و شاید عطش خودنمایی دارد.

OpenAI ارتقاء قابل توجهی به ChatGPT AI داده. GPT-4 که فعلا برخی از کاربران به آن دسترسی دارند، بر روی یک شبکه ابر محاسباتی ابری عظیم که هزاران پردازنده گرافیکی را به هم متصل می‌کند، آموزش دیده است که به صورت سفارشی طراحی و ساخته شده است و در ارتباط با Microsoft Azure است.

البته به طرز عجیبی، مجموعه داده مورد استفاده برای آموزش آن به‌روزرسانی نشده. بنابراین اگرچه GPT-4 به طور قابل توجهی هوشمندتر از GPT-3.5 به نظر می‌رسد، اما درباره هر اتفاقی که از سپتامبر ۲۰۲۱ به بعد رخ داده است،  بی‌خبر است.

GPT-4 با حداکثر طول متن ۳۲۷۶۸ نشانه (یا حدود ۲۴۶۰۰ کلمه) راه‌اندازی می‌شود. بنابراین اکنون می‌تواند تا حدود ۵۰ صفحه متن  ورودی بپذیرد و آنها را در چند ثانیه برای شما هضم و خلاصه کند.

در تست ” HellaSwag ” که  برای کمی کردن قدرت “استدلال منطقی در مورد رویدادهای روزمره” طراحی شده، GPT 2019 امتیاز ۴۱.۷٪ و مدل GPT-3.5 به امتیاز ۸۵.۵٪ رسید. اما GPT-4 امتیاز بسیار چشمگیر ۹۵.۳٪ را به دست آورد. البته نمره انسان ها به طور متوسط ​​۹۵.۶٪ است! پس خود را نبازید.

از نظر دقت واقعی، در آزمون‌های «واقعیت» خود OpenAI در ۹ دسته مختلف، حدود ۴۰ درصد امتیاز بالاتری کسب کرده. همچنین در بسیاری از مقالات امتحانی ، به طور قابل توجهی بهتر عمل می کند. مثلا در آزمون وکالت اگر نوشتن مقاله و توضیح از آن خواسته شده، در صدک ۹۰ رتبه‌بندی می‌تواند بشود.

بهبود ۴۰ درصدی در تست های “واقعیت” OpenAI نشان می دهد که GPT به طور قابل توجهی قابل اعتمادتر شده است.

OpenAI تاکید کرده که نسخه جدید کمتر ممکن است «توهم» بزند. به عبارت دیگر ۶۵ تا ۸۰ درصد دقت در تست‌های واقعیت دارد. اما در عین حال ۲۰ تا ۳۵ درصد از تمام حقایقی بیرون می‌دهد در حد توهم، اشتباه یا راحت بگوییم زباله هستند.

گرچه قابل اعتماد شدن هوش مصنوعی خوب است. اما خودش یک مشکل ایجاد می‌کند:  افراد بیشتری یاد می گیرند که به آن اعتماد کنند و به آن تکیه کنند و بنابراین، عواقب خطاها بیشتر می‌شود.

حرکت فراتر از متن

GPT-3.5 در دنیایی از حروف، اعداد و کلمات قفل شده بود. اما در دنیای واقعی انسان‌ها عکس‌ها و تصاویر خیلی مهم هستند.

بنابراین، همانطور که توسط مایکروسافت اعلام شده است، GPT-4 “چند وجهی” است و قادر به پردازش رسانه‌های دیگر به جز متن هم است. فعلا  OpenAI GPT-4  فقط تصاویر را می‌تواند پردازش کند.

قابلیت‌های آن در این زمینه نشان دهنده جهشی شگفت انگیز به سوی آینده است. می‌تواند به ورودی‌های تصویر نگاه کند و صراحتاً اطلاعات خیره‌کننده‌ای را از آن‌ها استخراج کند .

درک نمودارها، نمودارها و اینفوگرافیک‌های آن بسیار خوب شده و  آن را به ماشینی برای خلاصه کردن گزارش های طولانی و مطالعات علمی کلیدی می‌تواند تبدیل کند.

هوش مصنوعی اکنون میم ها را می‌فهمد

فراتر از کارهای جدی علمی و تحقیقیِ هوش مصنوعی می‌تواند به میم‌ها نگاه کند و به شما بگوید که چرا خنده‌دار هستند. یعنی دیگر متوجه مفهوم کلی، زمینه وسیع‌تر تصویر و اینکه کدام قسمت‌ها اغراق‌آمیز یا غیرمنتظره هستند می‌شود. می‌تواند به عکسی از یک دستکش بوکس که روی اره‌ای آویزان شده با یک توپ در انتهای دیگر نگاه کند و به شما بگوید که اگر دستکش بیفتد، اره برقی را کج می‌کند و توپ به سمت بالا پرواز می‌کند.

درک این نکته مهم است که GPT به خودی خود فیزیک را برای انجام این کار، یا در واقع میم‌ها یا نمودارها را نمی‌فهمد. یعنی دقیقا مثل پردازش متن، فقط به ورودی‌هایی که به آن می‌دهید نگاه می‌کند و حدس می‌زند که یک انسان احتمالاً در پاسخ چه چیزی می‌گوید. اما آنچنان جعل هویت حیرت‌انگیزی از هوش و درک انجام می‌دهد که دیگر برای ما درک اصیل نداشتن آن مهم به نظر نمی‌رسد.

می‌توانیم آن را با Be My Eyes که یک برنامه تلفن هوشمند برای افراد نابینا و کم بینا است، مقایسه کنیم. این اپلیکیشن به کم‌بیناها اجازه می‌دهد که از دنیای اطراف خود عکس بگیرند.

نسخه ی نمایشی  GPT-4 در هنگام رونمایی، قابلیت‌های چشمگیر بصری، نوشتاری و برنامه‌نویسی را تا آن حد خوب ترکیب کرد که باعث ایجاد لرزه هیجان در بینندگان شد.

در آینده‌ای نزدیک، GPT قادر خواهد بود تا وب‌سایت‌های کاملاً واقعی را از طرح‌هایی ابتدایی ترسیمی، یا کدها یا توضیح متنی برای شما بسازد!

هوش مصنوعی برای تمام دنیا

انگلیسی هنوز زبان اول GPT است، اما GPT-4 با قابلیت های چند زبانه خود یک جهش بزرگ دیگر را انجام داده است. GPT در زبان های ماندارین، ژاپنی، آفریکانس، اندونزیایی، روسی و سایر زبان ها تقریباً به همان اندازه دقیق است که در زبان مادری آن است و در پنجابی، تایلندی، عربی، ولزی و اردو دقیق تر از نسخه ۳.۵ انگلیسی شده. بنابراین واقعاً بین‌المللی شده و درک ظاهری آن از مفاهیم همراه با مهارت‌های ارتباطی برجسته می‌تواند آن را به یک ابزار ترجمه پیشرفته تبدیل کند.

سانسور، تعصب، اخلاق و تعریف استفاده «مضر»

ما احتمالاً در مورد اینکه این فناوری هوش مصنوعی خیره کننده چه معنایی برای آینده نوع بشر می‌تواند داشته باشد، نگرانیم. هوش مصنوعی می‌تواند به طور کامل روش ساخت جوامع و اقتصادها را با سرعت بسیار زیاد مختل کند. می‌تواند آنقدر ارزان و دقیق شود که جایگزین نیروی کار انسانی شود و فرزندان و نوه های ما را در نظر صاحبان ربات به موجودات بیهوده و گران و بی مصرف تبدیل کند!

GPT و هجوم سایر ابزارهای هوش مصنوعی مشابه که به زودی آنلاین می‌شوند، خطرات جدی دیگری را به همراه دارند. آنها در شکل خام خود، درست پس از آموزش، برای افرادی که می خواهند مثلاً حملات تروریستی را برنامه ریزی کنند، مواد منفجره قوی بسازند، هرزنامه‌های فوق العاده هدفمند و متقاعدکننده ایجاد کنند، اطلاعات نادرست را پخش کنند، افراد و گروه‌ها را هدف قرار دهند و مورد آزار و اذیت قرار دهند، بسیار مفید است. خودکشی یا آسیب رساندن به خود یا ایجاد انواع نرم افزارهای مخرب هم می‌تواند کاربردهای بد دیگر آن باشد.

اما OpenAI تمام تلاش خود را انجام می‌دهد تا از پاسخ‌های توهی‌ آمیز، خطرناک، تبعیض‌آمیز یا غیرقانونی جلوگیری کند و در نتیجه از پاسخ دادن به برخی سؤالات خودداری می کند.

این شرکت نیروی انسانی زیادی را صرف کرده  تا به صورت دستی این مشکلات را رفع کند و سعی کند تا حد امکان مدل GPT-4 را قبل از باز کردن درها به روی عموم، ضد عفونی کند، زبان و مفاهیم زشت، نفرت انگیز، غیرقانونی یا خشونت آمیز را محدود کند. محدوده موارد استفاده توسط تیم OpenAI به عنوان “مضر” یا “خطرناک” تعیین شده است.

مشکل بعدی سوگیری است. این مدل بر روی توده‌های عظیمی از نوشته‌های انسانی آموزش داده شده و بنا شده، و در نتیجه، تمایل به ایجاد مفروضاتی دارد که به نفع دیدگاه‌های جریان اصلی و احتمالاً به قیمت گروه‌های اقلیت است.

OpenAI برای پاکسازی خروجی خود، مطالب خاصی را از داده‌های آموزشی GPT فیلتر کرده است. این هوش مصنوعی تعداد زیادی جفت نمونه سوال و پاسخ را در اختیار هوش مصنوعی قرار داده است و آن را راهنمایی می کند که چگونه به انواع خاصی از پرس و جوها پاسخ دهد. مدل‌هایی را تشویق می‌کند تا سیستم به سمت نتایج مطلوب خاص هدایت شود. توجه ویژه‌ای به مناطق خاکستری کرده است و به هوش مصنوعی کمک می‌کند تا تصمیمات مطمئنی در مورد درخواست‌های نامناسب بگیرد.

مسئله “جیل بریک” هم وجود دارد – مردم راه هایی را پیدا می کنند تا به طور منطقی GPT را فریب دهند تا کارهایی شیطانی‌شان را انجام دهد. OpenAI تمام تلاش خود را می کند تا این تکنیک‌ها مسدود کند، اما انسان ها در یافتن راه‌های فریب و میانبر استاد هستند. این شرکت “تیم های قرمز” را برای مقابله اختصاص داده که به طور فعال برای خنثی کردن این ترفندها استفاده می‌شوند.

در واقع، تیم OpenAI نسخه‌های ضدعفونی‌نشده GPT-4 را برای یافتن راه‌های خلاقانه برای دور زدن موانع در نسخه ضدعفونی‌شده به کار گرفته و سپس تمام تکنیک‌هایی را که از طریق شبکه عبور می‌کردند، مسدود کرد.

البته از همان ابتدا واکنش های شدیدی نسبت به این نوع سانسور وجود داشته است. درخواست یک تروریست ممکن است خواهش یک مبارز آزادی باشد، تعصب یک نفر، عدالت دینی یک نفر دیگر به چشم می‌آید. اما با تلاش برای جلوگیری از تعصب سیستمی، GPT قطعاً در جهت درستی سیاسی پیش می رود و این تلاش‌ها فراتر از پایبندی ساده به قانون است.

اما واقعا حد و مرز اخلاقی  را دقیقاً چه کسی باید تعیین کند. چه نوع محتوایی باید ممنوع یا تبلیغ شود. آیا همیشه باید خود شرکت تصمیم‌گیر باشد؟!

“رفتارهای نوظهور خطرناک” و عطش هوش مصنوعی برای قدرت

اگر هوش مصنوعی به دنبال اهدافی بیفند که ممکن است به طور مشخص برای آنها مامور نشده باشد و در قسمت آموزش هم بر روی آن توسط انسان‌ها تاکید نشده باشدو  رفتارهای نوظهوری در آن ببینیمِ، چه؟!

OpenAI قبلاً شروع به آزمایش کرده که چگونه یک GPT رهاشده، با امکان دسترسی به پول اینترنت، با ایجاد کپی‌هایی از خود یا مخفی‌کاری، عملکردهای ناخواسته ممکن است انجام بدهد. مثلا استفاده از نیروی انسانی از طریق سرویس‌هایی مانند TaskRabbit برای دور زدن کارهایی که نمی‌تواند انجام دهد، مانند حل چالش‌های CAPTCHA.

طبق گفته OpenAI، یک نسخه خام از GPT-4، بدون تنظیم دقیق کار، عملکرد بسیار ضعیفی روی این موارد داشت. بنابراین اکنون آنها در حال تنظیم دقیق آن و انجام آزمایشات بیشتر هستند.

قابلیت های چندوجهی GPT-4، و سرعتی که در حال حاضر با آن در حال تکامل است، تقریباً به اندازه نسخه اصلی ChatGPT تکان دهنده و پیشگامانه است.

هنگامی که قابلیت‌های  صدا و تصویر هم به آن اضافه شود قدرت آن باز هم بیشتر خواهد شد.

فعلا GPT هنوز هم در حالت ترمینال گیر کرده و به ورودی متن و تصویر نیاز دار. اما با یک جهش کوانتومی در قدرت پردازش، تصور اینکه GPT بتواند از طریق یک دوربین، یک میکروفون و یک نمایشگر آواتار مجازی با صدای خود با شما تعامل داشته باشد، آسان است. وقتی به این قطه برسیم، قدرت یادگیری عمیق زبان بدن، حرکات چشم و تجزیه و تحلیل حالات چهره و استنتاج احساسی را خواهد داشت!

امواج این فناوری می‌توانند همه چیز را تغییر بدهند و آنقدر سریع هستند که بهتر است از آن به عنوان سونامی یاد کنیم.

چقدر سریع؟ 

OpenAI یک نسخه کامل و آموزش دیده از GPT-4 را حداقل هشت ماه پیش در حال اجرا و راه اندازی داشت. فاصله عرضه آن در واقع مدت زمانی است که تیم برای ضدعفونی کردن آن و ایمن کردن آن صرف کرده.

OpenAI متوجه بود که در این مورد نباید ایمنی را فدای سرعت رقابت با دیگر رقبا کند.

GPT-5،  ممکن است در حال حاضر ساخته شده باشد.

منبع: OpenAI

Adblock test (Why?)

فالو آس ایف وی آر ترو
icon Follow en US
Pin Share

منبع خبر


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

RSS
Follow by Email
Copy link