حالا دیگر می‌توانید یک مدل هوش مصنوعی سطح GPT-3 را روی لپ تاپ، تلفن و «رزبری پای» خود اجرا کنید

سرعت تحولات در سرزمین هوش مصنوعی شتاب گرفته. روز جمعه، یک توسعه‌دهنده نرم‌افزار به نام گئورگی گرگانف ابزاری به نام “llama.cpp” ایجاد کرد که می‌تواند مدل جدید زبان بزرگ هوش مصنوعی متا کلاس GPT-3 یا LLaMA را به صورت محلی روی لپ‌تاپ مک اجرا کند.

چیزی نگذشته بود که مردم نحوه اجرای LLaMA را در ویندوز نیز بررسی کردند. سپس شخصی آن را در حال اجرا بر روی یک تلفن پیکسل ۶ نشان داد و بعد از آن روی یک«رزبری پای» Raspberry Pi (البته روی این دو تا با سرعت کم).

اگر این روند ادامه پیدا کند، ممکن است روزی رقیب جیبی ChatGPT را دیگر در لپ تاپ و گوشی خودمان داشته باشیم. تصور کنید که بتوانید یادداشت‌های شخصی و هر اطلاعاتی که دوست دارید به دیتابیسش بخورانید و خلاصه تحویل بگیرید! مثلا کل رمان‌ها یا جزوات دانشگاهی و متنون درسی که دوست دارید!

البته فعلا به این مرحله نرسیده‌ایم. (حداقل نه تا امروز) اما هیچ کس نمی‌داند که هفته آینده چه خواهد شد.

از زمان راه‌اندازی ChatGPT ، برخی از افراد از محدودیت‌های داخلی مدل هوش مصنوعی که مانع از بحث درباره موضوعاتی می‌شود که OpenAI حساس می‌داند، ناامید شده‌اند. بنابراین رویای یک مدل زبان بزرگ منبع باز (LLM) آغاز شد که هر کسی بتواند بدون سانسور و بدون پرداخت هزینه API به OpenAI به صورت محلی آن را اجرا کند.

البته راه‌حل‌های منبع باز شناخته‌شده‌ای از قبل هم وجود داشتند (مانند GPT-J )، اما به مقدار زیادی RAM و فضای ذخیره‌سازی GPU نیاز دارن. تا امروز جایگزین‌های منبع باز نمی‌توانستند عملکرد سطح GPT-3 را در سخت افزاری در سطح کاربران عادی به راحتی در دسترس داشته باشند.

اما LLaMA، مدل‌ سایز کوچک‌تری است که می‌تواند در کیفیت و سرعت خروجی‌اش راضی‌مان کند. فقط یک مشکل وجود داشت – متا کد LLaMA را به صورت منبع باز  منتشر کرده، اما به صورت کامل فقط برای محققان واجد شرایط.

محدودیت های متا در LLaMA زیاد دوام نیاورد، زیرا در ۲ مارس، شخصی به اصطلاح «وزن‌»های LLaMA را در BitTorrent فاش کرد. از آن زمان، انفجاری در توسعه پیرامون LLaMA رخ داد. محقق مستقل هوش مصنوعی سایمون ویلیسون  این وضعیت را با انتشار Stable Diffusion، مقایسه کرده. او هیجان زده نوشت امروز صبح برای اولین بار یک مدل زبان کلاس GPT-3 را روی لپ تاپ شخصی خودم اجرا کردم!

به طور معمول، اجرای GPT-3 به چندین پردازنده گرافیکی A100  نیاز دار، اما LLaMA مورد توجه قرار گرفته زیرا می‌تواند روی یک پردازنده گرافیکی واحد در دسترس کاربران عادی اجرا شود.

اکنون، با بهینه‌سازی‌هایی که اندازه مدل را با استفاده از تکنیکی به نام کوانتیزه‌سازی کاهش می‌دهد، LLaMA می‌تواند روی یک مک M1 یا یک پردازنده گرافیکی  Nvidia اجرا کرد. (اگرچه “llama.cpp” در حال حاضر فقط بر روی CPU اجرا می‌شود.)

لیستی از رویدادهای قابل توجه مرتبط با LLaMA بر اساس جدول زمانی – ارائه شده توسط ویلیسون در هکر نیوز:

۲۴ فوریه ۲۰۲۳: هوش مصنوعی متا LLaMA رونمایی شد.
۲ مارس ۲۰۲۳: شخصی مدل‌های LLaMA را از طریق BitTorrent افشاکرد.
۱۰ مارس ۲۰۲۳: گئورگی گرگانوف llama.cpp را ایجاد کرد که می تواند روی M1 Mac اجرا شود.
۱۱ مارس ۲۰۲۳:  اجرای LLaMA 7B (به سرعت کم) را روی Raspberry Pi 4با  ۴ گیگابایت رم.
۱۳ مارس ۲۰۲۳: شخصی llama.cpp را روی تلفن Pixel 6 اجرا کرد. باز با سرعت کم.
۱۳ مارس ۲۰۲۳، ۲۰۲۳: استنفورد Alpaca 7B را منتشر کرد، یک نسخه تنظیم‌شده با دستورالعمل از LLaMA 7B که عملکردی مشابه با text-davinci-003  OpenAI دارد، اما روی سخت‌افزار بسیار کم‌قدرت اجرا می‌شود.

البته اجرای LLaMA در مک چندان هم ساده نیست. در واقع یک تمرین نسبتاً فنی برای شماست. شما باید پایتون و Xcode را نصب کنید و با کار بر روی خط فرمان آشنا باشید. ویلیسون دستورالعمل های گام به گام خوبی برای هر کسی که مایل به انجام آن است دارد.

در مورد پیامدهای عرضه همگانی این فناوری  هنوز کسی نمی داند. در حالی که برخی نگران تأثیر هوش مصنوعی به عنوان ابزاری برای انتشار هرزنامه و اطلاعات نادرست هستند،برخی به کاربردهای خوبش فکر می‌کنند.

Adblock test (Why?)

منبع خبر


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.