جن فرار می‌کند: استنفورد هوش مصنوعی ChatGPT را با کمتر از ۶۰۰ دلار کپی می‌کند!

2023 03 20 21 33 36

هوش مصنوعی Alpaca استنفورد در بسیاری از وظایف مشابه ChatGPT شگفت‌انگیز عمل می‌کند. اما بر اساس یک مدل زبان منبع باز ساخته شده است و هزینه آموزش آن کمتر از ۶۰۰ دلار آمریکا است. به نظر می‌رسد این هوش مصنوعی‌های خداگونه در حال حاضر به طرز وحشتناکی ارزان هستند و به راحتی قابل تقلید هستند.

شش ماه پیش، تنها محققان و متخصصان توسعه مدل‌های زبانی بزرگ از آنها سرتاب می‌آوردند. اما ChatGPT ناگهان بشریت را سوار موشکی کرد: این ماشین‌ها اکنون می‌توانند به گونه‌ای ارتباط برقرار کنند که تقریباً از انسان قابل تشخیص نباشند. آنها قادرند متن و حتی کدهای برنامه نویسی را در چند ثانیه بنویسند آن هم اغلب با استاندارد بسیار بالا.

همانطور که راه‌اندازی GPT-4 نشان می‌دهد، آن‌ها با سرعتی بالا در حال توسعه هستند و می‌خواهند جامعه بشری را به طور اساسی متحول کنند، مانند چند فناوری دیگر، این خودکار شدن کارها ممکن است منجر به تغییرات غیرقابل پیشبینی شود.

بسیاری از شرکت‌های دیگر – به‌ویژه گوگل، اپل، متا، بایدو و آمازون، خیلی عقب نیستند و هوش مصنوعی آنها به زودی به بازار خواهد آمد.

اگر کاربر Bing هستید، مدل‌های زبان در حال حاضر هم در موتور جستجوی شما هستند و به زودی در بقیه مدل‌ها قرار خواهند گرفت. هر زمان که بخواهید با یک شرکت تماس بگیرید، آنها در ماشین، گوشی، تلویزیون، و در انتهای خط منتظر خواهند بود. خیلی زود، آنها را در روبات‌ها خواهید دید.

یک نکته کوچک آرامش این است که OpenAI و بقیه این شرکت های بزرگ از پتانسیل بد این ماشین‌ها برای ساختن هرزنامه، اطلاعات نادرست، ایجاد بدافزار، آزار و اذیت هدفمند آگاه هستند. آنها ماه ها است که کار می کنند تا قبل از راه اندازی این قابلیت‌ها  به صورت دستی این خطر را کاهش دهند.

اما در مورد مدل زبانی که می توانید خودتان با ۶۰۰ دلار بسازید، چطور؟ تیمی از محققان استنفورد دقیقاً این کار را انجام داده‌اند، و عملکرد چشمگیر آن نشان می‌دهد که کل این بخش و قابلیت‌های عالی آن با چه سرعتی ممکن است به سرعت از کنترل خارج شوند.

یک تیم تحقیقاتی استنفورد کار خود را با مدل زبان متن‌باز LLaMA 7B متا آغاز کرد – کوچک‌ترین و ارزان‌ترین مدل از چندین مدل LLaMA موجود. این مدل زبان کوچک که از قبل بر روی یک تریلیون “ژتون” آموزش داده شده بود، مقدار مشخصی قابلیت را داشت. اما در بیشتر وظایف به طور قابل توجهی از ChatGPT عقب بود. هزینه اصلی و در واقع مزیت رقابتی اصلی در مدل‌های GPT عمدتاً ناشی از زمان و نیروی انسانی بسیار زیادی است که OpenAI برای آموزش پس از آموزش گذاشته است. خواندن یک میلیارد کتاب یک چیز است، اما حوراندن تعداد زیادی پرسش و پاسخ که به این هوش مصنوعی ها می‌آموزد شغل واقعی آنها چیست، چیز دیگر است.

بنابراین، با راه اندازی و اجرای مدل LLaMA 7B، تیم استنفورد اساساً از GPT خواست ۱۷۵ جفت دستورالعمل/خروجی نوشته شده توسط انسان را بگیرد و شروع به تولید بیشتر در همان سبک و فرمت کند. این کار از طریق یکی از APIهای مفید OpenAI انجام شد و در مدت کوتاهی، تیم حدود ۵۲۰۰۰ مکالمه نمونه برای استفاده در مدل LLaMA داشت. هزینه تولید این داده های آموزشی انبوه کمتر از ۵۰۰ دلار آمریکا است.

سپس، آن‌ها از این داده‌ها برای تنظیم دقیق مدل LLaMA استفاده کردند – فرآیندی که در هشت رایانه پردازش ابری A100 80 گیگابایتی حدود سه ساعت طول کشید. این هزینه کمتر از ۱۰۰ دلار آمریکا است.

در مرحله بعد، آنها مدل به دست آمده را که آن را Alpaca نامیدند، در برابر مدل زبانی زیربنایی ChatGPT در زمینه‌های مختلف از جمله نوشتن ایمیل، رسانه‌های اجتماعی و ابزارهای بهره‌وری آزمایش کردند. آلپاکا در ۹۰ مورد از این تست‌ها برنده شد و GPT در ۸۹ مورد برنده شد.

این تیم ادامه می‌گوید هر کسی که بخواهد یک هوش مصنوعی را تکرار کند اکنون به GPT 4.0 بسیار تواناتر و همچنین چندین مدل قدرتمندتر LLaMA برای استفاده به عنوان پایه دسترسی دارد و مطمئناً نیازی به توقف در ۵۲۰۰۰ سؤال نیست.

تیم استنفورد ۵۲۰۰۰ سوال مورد استفاده در این تحقیق را به همراه کد تولید بیشتر و کدی که برای تنظیم دقیق مدل LLaMA استفاده کرده‌اند در Github منتشر کرده است.

بنابراین، اساساً چه چیزی مانع از ایجاد هوش مصنوعی خانگی خود در حال حاضر، با صد دلار یا بیشتر، و آموزش آن به هر نحوی که می‌خواهد، می‌شود؟ خوب، شرایط خدمات OpenAI می گوید: “شما نمی توانید … از خروجی سروی‌ ها برای توسعه مدل‌هایی که با OpenAI رقابت می کنند استفاده کنید.” و متا می‌گوید در این مرحله فقط به محققان دانشگاهی اجازه استفاده از LLaMA را تحت مجوزهای غیرتجاری می‌دهد، اگرچه این موضوع بحث‌انگیز است، زیرا کل مدل LLaMA یک هفته پس از اعلام آن در ۴chan به بیرون درز کرد!÷

گروهی دیگر می‌گویند که توانسته است هزینه رایانش ابری را حذف کند، کد بیشتری را در Github منتشر کرده است که می‌تواند روی Raspberry Pi اجرا شود و فرآیند آموزش را در عرض پنج ساعت بر روی یک کارت گرافیک رده بالای nVidia RTX 4090 تکمیل می‌کند.

آلپاکا در کمال تعجب بسیار خوب است. آموزش را می توان در ۵ ساعت با یک RTX 4090 انجام داد.

حیف است که از قابلیت‌های فوق‌العاده این نرم‌افزار  یک رژیم مستبد استفاده کند، یا در عملیات فیشینگ، یا هرزنامه‌نویسی، استفاده شود.

جن از بطری خارج شده است، و به نظر می رسد که در حال حاضر تکرار کردن و آموزش مجدد آن فوق العاده آسان است.

منبع: Stanford

Adblock test (Why?)

فالو آس ایف وی آر ترو
icon Follow en US
Pin Share

منبع خبر


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

RSS
Follow by Email
Copy link