فهرست بستن

این تکنیک جدید اجازه می‌دهد هوش مصنوعی بدون تقریبا هیچ داده‌ای آموزش ببیند

یادگیری ماشینی معمولا نیازمند انبوهی از اطلاعات نمونه است. برای اینکه یک مدل هوش مصنوعی قادر به تشخیص یک اسب باشد، باید هزاران تصویر از اسب را به آن نشان داده باشید. همین باعث می‌شود که تکنولوژی کامپیوتری مورد نظرمان بسیار پر هزینه و بسیار متفاوت از یادگیری انسانی باشد. یک کودک معمولا به تنها چند مثال از یک شی، یا حتی یک مثال نیاز دارد و سپس برای همیشه قادر به شناسایی آن خواهد بود.

در واقع کودکان گاهی به هیچ مثالی برای شناسایی چیزی خاص نیاز ندارند. کافیست یک تصویر از یک اسب و یک کرگدن را به او نشان دهید و صرفا بگویید که اسب تک‌شاخ ترکیبی از این دو است. دفعه بعدی که او تصویر این موجود خیالی را در یک کتاب بببند، به درستی آن را شناسایی خواهد کرد.

حالا یک مقاله از سوی دانشگاه واترلو منتشر شده که نشان می‌دهد می‌توان همین روش یادگیری را با هوش مصنوعی نیز در پیش گرفت. محققان برای این متد یادگیری، نام «کمتر از یک مثال» را انتخاب کرده‌اند. به عبارت دیگر، هوش مصنوعی باید قادر به شناسایی اشیای بیشتری نسبت به مثال‌هایی که بر مبنای آن‌ها آموزش دیده باشد. چنین چیزی یک اتفاق انقلابی در دنیای هوش مصنوعی تلقی خواهد شد و از هزینه‌ها و زمان مورد نیاز برای تربیت کردن هوش مصنوعی خواهد کاست.





نمونه تصویر از دیتابیس MNIST

محققان دانشگاه واترلو برای نخستین بار زمانی به این ایده دست پیدا کردند که مشغول آزمون و خطا با دیتابیس مشهور MNIST برای بینایی کامپیوتری بودند. MNIST شامل ۶۰ هزار تصویر از ارقام ۰ تا ۹ نوشته شده با دست می‌شود و معمولا از آن برای آزمودن ایده‌های جدید در حوزه هوش مصنوعی استفاده می‌شود.

در مقالات قبلی، محققان MIT از تکنیکی برای «چکیده کردن» دیتاهای انبوه پرده برداشته بودند و توانستند تمام دیتابیس MNIST را به تنها ۱۰ تصویر تقلیل دهند. تصاویر نهایی، از میان تصاویر موجود در دیتابیس انتخاب نشده بودند، بلکه به گونه‌ای مهندسی و بهینه‌سازی شده‌ بودند که شامل همان مقدار از اطلاعات باشند. در نتیجه، بعد از آموزش دیدن با تنها ۱۰ تصویر، هوش مصنوعی MIT توانست میزان دقتی کاملا مشابه با هوش مصنوعی دیگری که بر مبنای تمام تصاویر MNIST آموزش دیده بود را به نمایش بگذارد.

محققین واترلو می‌خواستند این تکنیک را بیش از پیش به جلو برانند. اگر می‌توان ۶۰ هزار تصویر را به تبدیل به تنها ۱۰ تصویر کرد، چرا به ۵ تصویر تبدیل‌شان نکنیم؟ آن‌ها متوجه شدند که ترفند صحیح، ساخت تصاویری است که اعداد مختلف در آن با یکدیگر ادغام شده‌اند. (دوباره به مثال اسب و کرگدن فکر کنید که هرکدام بخشی از ویژگی‌های فیزیکی اسب تک‌شاخ را دارند).

ن

نمونه تصویر از دیتابیس MNIST که توسط MIT در ۱۰ تصویر فشرده شده

لیا سوشولوتسکی، دانشجوی دکترای دانشگاه واترلو و نویسنده ارشد مقاله می‌گوید: «اگر به عدد 3 فکر کنید، یک‌جورهایی شبیه عدد 8 است اما هیچ شباهتی به عدد 7 ندارد. در این روش، با لیبل‌های نرم سعی می‌کنیم ویژگی‌های مشابه را توصیف کنیم. بنابراین به جای اینکه به ماشین بگوییم این تصویر متعلق به عدد 3 است، به آن می‌گوییم که این تصویر ۶۰ درصد از عدد 3 و ۳۰ درصد از عدد 8 و ۱۰ درصد از عدد 0 تشکیل شده».

بعد از استفاده موفقیت‌آمیز از لیبل‌های نرم برای دستیابی به یادگیری کمتر از یک مثال با دیتابیس MNIST، محققان به این فکر افتادند که کار را چقدر می‌توانند پیش ببرند. آیا می‌توان تعداد تصاویر را باز هم کاهش داد؟ مشخص شد که بله. با لیبل‌های نرمی که به ظرافت مهندسی شد باشند، دو مثال می‌توانند در تئوری شامل هر میزان دسته‌بندی باشند. کار محققان واترلو، اکتشافات تازه در دنیای ریاضیات محض بوده است. آن‌ها در حال آزمون و خطا با یکی از ساده‌ترین الگوریتم‌های یادگیری ماشین به نام k-Nearest Neighbors (یا به اختصار kNN) بوده‌اند که اشیا را با رویکرد گرافیکی دسته‌بندی می‌کند.

برای درک کارکرد kNN، می‌توانیم دسته‌بندی میوه‌ها را مثال بزنیم. اگر بخواهید kNN فرق میان سیب و پرتقال را تشخیص دهد، ابتدا باید خصیصه‌های کلی هر میوه را انتخاب کنید. شاید بخواهید به سراغ رنگ و وزن بروید. بنابراین برای سیب و پرتقال، دو نقطه داده مختلف در اختیار kNN قرار می‌دهید که هرکدام شامل مقدار x به عنوان رنگ و مقدار y به عنوان وزن می‌شوند. الگوریتم kNN سپس تمام نقاط داده را وارد یک چارت دوبعدی می‌کند و خطوطی مستقیم در میانه آن می‌کشد تا میان سیب و پرتقال تفاوت قائل شده باشد. از این لحظه به بعد، دو دسته‌بندی مختلف دارید و هوش مصنوعی تصمیم می‌گیرد اطلاعات جدید باید در کدام سمت خط میانی قرار بگیرند.

سوشولوتسکی تاکید کرده که تحقیقات هنوز در مراحل ابتدایی به سر می‌برند،‌ اما در عین حال از نتایج اولیه هیجان‌زده است. او هر بار که مقاله را به محققان هم‌رده خود نشان می‌داده، به او می‌گفته‌اند که چنین کاری غیرممکن است. اما تمام آن محققان به ناگاه متوجه پتانسیل کار سوشولوتسکی شدند و به این ترتیب، درهای تازه‌ای به روی او و پروژه‌اش باز شد.

Let’s block ads! (Why?)

لینک منبع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *