رخدادهای فناوری ۲۰ سال پیش را پیش چشم آورید، ما تصور میکنیم که راه درازی را پیمودهایم. از آن زمان که اینترنت فقط تعدادی سایت به هم پیوسته و موتورهای جستجوی ناکارآمد بود تا حالا که هر کاربری منتشر کننده محتوا (با هر کیفیتی) شده و سرگرمی بیشتر از اطلاعرسانی اهمیت پیدا کرده است.
اما درست در زمانی که تصور میکردیم که دیگر خبری از انقلابهای فناوری که سریع زندگی مردم عادی را تغییر بدهند نیست، با چت GPT-4 روبرو میشویم، فقط چند ماه پس از نسخههای ابتدایی ChatGPT. این نسخه این هوش مصنوعی هوشمندانهتر و دقیقتر شده و فریب دادن آن سختتر شده. اکنون GPT-4 توانایی عجیبی در تفسیر تصاویر پیدا کرده و شاید عطش خودنمایی دارد.
OpenAI ارتقاء قابل توجهی به ChatGPT AI داده. GPT-4 که فعلا برخی از کاربران به آن دسترسی دارند، بر روی یک شبکه ابر محاسباتی ابری عظیم که هزاران پردازنده گرافیکی را به هم متصل میکند، آموزش دیده است که به صورت سفارشی طراحی و ساخته شده است و در ارتباط با Microsoft Azure است.
البته به طرز عجیبی، مجموعه داده مورد استفاده برای آموزش آن بهروزرسانی نشده. بنابراین اگرچه GPT-4 به طور قابل توجهی هوشمندتر از GPT-3.5 به نظر میرسد، اما درباره هر اتفاقی که از سپتامبر ۲۰۲۱ به بعد رخ داده است، بیخبر است.
GPT-4 با حداکثر طول متن ۳۲۷۶۸ نشانه (یا حدود ۲۴۶۰۰ کلمه) راهاندازی میشود. بنابراین اکنون میتواند تا حدود ۵۰ صفحه متن ورودی بپذیرد و آنها را در چند ثانیه برای شما هضم و خلاصه کند.
در تست ” HellaSwag ” که برای کمی کردن قدرت “استدلال منطقی در مورد رویدادهای روزمره” طراحی شده، GPT 2019 امتیاز ۴۱.۷٪ و مدل GPT-3.5 به امتیاز ۸۵.۵٪ رسید. اما GPT-4 امتیاز بسیار چشمگیر ۹۵.۳٪ را به دست آورد. البته نمره انسان ها به طور متوسط ۹۵.۶٪ است! پس خود را نبازید.
از نظر دقت واقعی، در آزمونهای «واقعیت» خود OpenAI در ۹ دسته مختلف، حدود ۴۰ درصد امتیاز بالاتری کسب کرده. همچنین در بسیاری از مقالات امتحانی ، به طور قابل توجهی بهتر عمل می کند. مثلا در آزمون وکالت اگر نوشتن مقاله و توضیح از آن خواسته شده، در صدک ۹۰ رتبهبندی میتواند بشود.
بهبود ۴۰ درصدی در تست های “واقعیت” OpenAI نشان می دهد که GPT به طور قابل توجهی قابل اعتمادتر شده است.
OpenAI تاکید کرده که نسخه جدید کمتر ممکن است «توهم» بزند. به عبارت دیگر ۶۵ تا ۸۰ درصد دقت در تستهای واقعیت دارد. اما در عین حال ۲۰ تا ۳۵ درصد از تمام حقایقی بیرون میدهد در حد توهم، اشتباه یا راحت بگوییم زباله هستند.
گرچه قابل اعتماد شدن هوش مصنوعی خوب است. اما خودش یک مشکل ایجاد میکند: افراد بیشتری یاد می گیرند که به آن اعتماد کنند و به آن تکیه کنند و بنابراین، عواقب خطاها بیشتر میشود.
حرکت فراتر از متن
GPT-3.5 در دنیایی از حروف، اعداد و کلمات قفل شده بود. اما در دنیای واقعی انسانها عکسها و تصاویر خیلی مهم هستند.
بنابراین، همانطور که توسط مایکروسافت اعلام شده است، GPT-4 “چند وجهی” است و قادر به پردازش رسانههای دیگر به جز متن هم است. فعلا OpenAI GPT-4 فقط تصاویر را میتواند پردازش کند.
قابلیتهای آن در این زمینه نشان دهنده جهشی شگفت انگیز به سوی آینده است. میتواند به ورودیهای تصویر نگاه کند و صراحتاً اطلاعات خیرهکنندهای را از آنها استخراج کند .
درک نمودارها، نمودارها و اینفوگرافیکهای آن بسیار خوب شده و آن را به ماشینی برای خلاصه کردن گزارش های طولانی و مطالعات علمی کلیدی میتواند تبدیل کند.
هوش مصنوعی اکنون میم ها را میفهمد
فراتر از کارهای جدی علمی و تحقیقیِ هوش مصنوعی میتواند به میمها نگاه کند و به شما بگوید که چرا خندهدار هستند. یعنی دیگر متوجه مفهوم کلی، زمینه وسیعتر تصویر و اینکه کدام قسمتها اغراقآمیز یا غیرمنتظره هستند میشود. میتواند به عکسی از یک دستکش بوکس که روی ارهای آویزان شده با یک توپ در انتهای دیگر نگاه کند و به شما بگوید که اگر دستکش بیفتد، اره برقی را کج میکند و توپ به سمت بالا پرواز میکند.
درک این نکته مهم است که GPT به خودی خود فیزیک را برای انجام این کار، یا در واقع میمها یا نمودارها را نمیفهمد. یعنی دقیقا مثل پردازش متن، فقط به ورودیهایی که به آن میدهید نگاه میکند و حدس میزند که یک انسان احتمالاً در پاسخ چه چیزی میگوید. اما آنچنان جعل هویت حیرتانگیزی از هوش و درک انجام میدهد که دیگر برای ما درک اصیل نداشتن آن مهم به نظر نمیرسد.
میتوانیم آن را با Be My Eyes که یک برنامه تلفن هوشمند برای افراد نابینا و کم بینا است، مقایسه کنیم. این اپلیکیشن به کمبیناها اجازه میدهد که از دنیای اطراف خود عکس بگیرند.
نسخه ی نمایشی GPT-4 در هنگام رونمایی، قابلیتهای چشمگیر بصری، نوشتاری و برنامهنویسی را تا آن حد خوب ترکیب کرد که باعث ایجاد لرزه هیجان در بینندگان شد.
در آیندهای نزدیک، GPT قادر خواهد بود تا وبسایتهای کاملاً واقعی را از طرحهایی ابتدایی ترسیمی، یا کدها یا توضیح متنی برای شما بسازد!
هوش مصنوعی برای تمام دنیا
انگلیسی هنوز زبان اول GPT است، اما GPT-4 با قابلیت های چند زبانه خود یک جهش بزرگ دیگر را انجام داده است. GPT در زبان های ماندارین، ژاپنی، آفریکانس، اندونزیایی، روسی و سایر زبان ها تقریباً به همان اندازه دقیق است که در زبان مادری آن است و در پنجابی، تایلندی، عربی، ولزی و اردو دقیق تر از نسخه ۳.۵ انگلیسی شده. بنابراین واقعاً بینالمللی شده و درک ظاهری آن از مفاهیم همراه با مهارتهای ارتباطی برجسته میتواند آن را به یک ابزار ترجمه پیشرفته تبدیل کند.
سانسور، تعصب، اخلاق و تعریف استفاده «مضر»
ما احتمالاً در مورد اینکه این فناوری هوش مصنوعی خیره کننده چه معنایی برای آینده نوع بشر میتواند داشته باشد، نگرانیم. هوش مصنوعی میتواند به طور کامل روش ساخت جوامع و اقتصادها را با سرعت بسیار زیاد مختل کند. میتواند آنقدر ارزان و دقیق شود که جایگزین نیروی کار انسانی شود و فرزندان و نوه های ما را در نظر صاحبان ربات به موجودات بیهوده و گران و بی مصرف تبدیل کند!
GPT و هجوم سایر ابزارهای هوش مصنوعی مشابه که به زودی آنلاین میشوند، خطرات جدی دیگری را به همراه دارند. آنها در شکل خام خود، درست پس از آموزش، برای افرادی که می خواهند مثلاً حملات تروریستی را برنامه ریزی کنند، مواد منفجره قوی بسازند، هرزنامههای فوق العاده هدفمند و متقاعدکننده ایجاد کنند، اطلاعات نادرست را پخش کنند، افراد و گروهها را هدف قرار دهند و مورد آزار و اذیت قرار دهند، بسیار مفید است. خودکشی یا آسیب رساندن به خود یا ایجاد انواع نرم افزارهای مخرب هم میتواند کاربردهای بد دیگر آن باشد.
اما OpenAI تمام تلاش خود را انجام میدهد تا از پاسخهای توهی آمیز، خطرناک، تبعیضآمیز یا غیرقانونی جلوگیری کند و در نتیجه از پاسخ دادن به برخی سؤالات خودداری می کند.
این شرکت نیروی انسانی زیادی را صرف کرده تا به صورت دستی این مشکلات را رفع کند و سعی کند تا حد امکان مدل GPT-4 را قبل از باز کردن درها به روی عموم، ضد عفونی کند، زبان و مفاهیم زشت، نفرت انگیز، غیرقانونی یا خشونت آمیز را محدود کند. محدوده موارد استفاده توسط تیم OpenAI به عنوان “مضر” یا “خطرناک” تعیین شده است.
مشکل بعدی سوگیری است. این مدل بر روی تودههای عظیمی از نوشتههای انسانی آموزش داده شده و بنا شده، و در نتیجه، تمایل به ایجاد مفروضاتی دارد که به نفع دیدگاههای جریان اصلی و احتمالاً به قیمت گروههای اقلیت است.
OpenAI برای پاکسازی خروجی خود، مطالب خاصی را از دادههای آموزشی GPT فیلتر کرده است. این هوش مصنوعی تعداد زیادی جفت نمونه سوال و پاسخ را در اختیار هوش مصنوعی قرار داده است و آن را راهنمایی می کند که چگونه به انواع خاصی از پرس و جوها پاسخ دهد. مدلهایی را تشویق میکند تا سیستم به سمت نتایج مطلوب خاص هدایت شود. توجه ویژهای به مناطق خاکستری کرده است و به هوش مصنوعی کمک میکند تا تصمیمات مطمئنی در مورد درخواستهای نامناسب بگیرد.
مسئله “جیل بریک” هم وجود دارد – مردم راه هایی را پیدا می کنند تا به طور منطقی GPT را فریب دهند تا کارهایی شیطانیشان را انجام دهد. OpenAI تمام تلاش خود را می کند تا این تکنیکها مسدود کند، اما انسان ها در یافتن راههای فریب و میانبر استاد هستند. این شرکت “تیم های قرمز” را برای مقابله اختصاص داده که به طور فعال برای خنثی کردن این ترفندها استفاده میشوند.
در واقع، تیم OpenAI نسخههای ضدعفونینشده GPT-4 را برای یافتن راههای خلاقانه برای دور زدن موانع در نسخه ضدعفونیشده به کار گرفته و سپس تمام تکنیکهایی را که از طریق شبکه عبور میکردند، مسدود کرد.
البته از همان ابتدا واکنش های شدیدی نسبت به این نوع سانسور وجود داشته است. درخواست یک تروریست ممکن است خواهش یک مبارز آزادی باشد، تعصب یک نفر، عدالت دینی یک نفر دیگر به چشم میآید. اما با تلاش برای جلوگیری از تعصب سیستمی، GPT قطعاً در جهت درستی سیاسی پیش می رود و این تلاشها فراتر از پایبندی ساده به قانون است.
اما واقعا حد و مرز اخلاقی را دقیقاً چه کسی باید تعیین کند. چه نوع محتوایی باید ممنوع یا تبلیغ شود. آیا همیشه باید خود شرکت تصمیمگیر باشد؟!
“رفتارهای نوظهور خطرناک” و عطش هوش مصنوعی برای قدرت
اگر هوش مصنوعی به دنبال اهدافی بیفند که ممکن است به طور مشخص برای آنها مامور نشده باشد و در قسمت آموزش هم بر روی آن توسط انسانها تاکید نشده باشدو رفتارهای نوظهوری در آن ببینیمِ، چه؟!
OpenAI قبلاً شروع به آزمایش کرده که چگونه یک GPT رهاشده، با امکان دسترسی به پول اینترنت، با ایجاد کپیهایی از خود یا مخفیکاری، عملکردهای ناخواسته ممکن است انجام بدهد. مثلا استفاده از نیروی انسانی از طریق سرویسهایی مانند TaskRabbit برای دور زدن کارهایی که نمیتواند انجام دهد، مانند حل چالشهای CAPTCHA.
طبق گفته OpenAI، یک نسخه خام از GPT-4، بدون تنظیم دقیق کار، عملکرد بسیار ضعیفی روی این موارد داشت. بنابراین اکنون آنها در حال تنظیم دقیق آن و انجام آزمایشات بیشتر هستند.
قابلیت های چندوجهی GPT-4، و سرعتی که در حال حاضر با آن در حال تکامل است، تقریباً به اندازه نسخه اصلی ChatGPT تکان دهنده و پیشگامانه است.
هنگامی که قابلیتهای صدا و تصویر هم به آن اضافه شود قدرت آن باز هم بیشتر خواهد شد.
فعلا GPT هنوز هم در حالت ترمینال گیر کرده و به ورودی متن و تصویر نیاز دار. اما با یک جهش کوانتومی در قدرت پردازش، تصور اینکه GPT بتواند از طریق یک دوربین، یک میکروفون و یک نمایشگر آواتار مجازی با صدای خود با شما تعامل داشته باشد، آسان است. وقتی به این قطه برسیم، قدرت یادگیری عمیق زبان بدن، حرکات چشم و تجزیه و تحلیل حالات چهره و استنتاج احساسی را خواهد داشت!
امواج این فناوری میتوانند همه چیز را تغییر بدهند و آنقدر سریع هستند که بهتر است از آن به عنوان سونامی یاد کنیم.
چقدر سریع؟
OpenAI یک نسخه کامل و آموزش دیده از GPT-4 را حداقل هشت ماه پیش در حال اجرا و راه اندازی داشت. فاصله عرضه آن در واقع مدت زمانی است که تیم برای ضدعفونی کردن آن و ایمن کردن آن صرف کرده.
OpenAI متوجه بود که در این مورد نباید ایمنی را فدای سرعت رقابت با دیگر رقبا کند.
GPT-5، ممکن است در حال حاضر ساخته شده باشد.
منبع: OpenAI