OpenAI نه، گوگل همچنان در حوزه هوش مصنوعی می‌تازد!

google ai 63d664f6733fadf748877306

ما به‌عنوان کاربران عادی می‌توانیم بنشینیم و شاهد نبرد میان شرکت‌ها باشیم و از نتایج آن لذت ببریم. البته در این میان یک عنصر خطر هم وجود دارد. سرعت توسعه‌ی هوش مصنوعی احتمالاً پس‌از ورود ChatGPT افزایش خواهد یافت. همان‌طور که رقابت شدیدتر می‌شود، پنهان‌کاری‌ها نیز افزایش می‌یابند. از آن‌جا که شرکت‌های بزرگ حوزه‌ی فناوری روی تحقیق و توسعه‌ی هوش مصنوعی سرمایه‌گذاری‌های زیادی انجام می‌دهند، شاید تمایل کم‌تری به افشای جزئیات مدل‌های خود و روش‌ کارکرد آن‌ها در مقالات تحقیقاتی داشته باشند.

پرسی لیانگ، مدیر مرکز تحقیقات مدل‌های بنیادی گروه هوش مصنوعی استنفورد می‌گوید سطح عمومی و باز بودن علمی جامعه‌ی تحقیقاتی هوش مصنوعی درسال گذشته تا حدودی کاهش یافته است. لیانگ همچنین اهمیت انتشار جزئیات مربوط به مدل‌ها و روش کارکرد آن‌ها و همچنین سیاست‌های آموزشی مرتبط با هوش مصنوعی را بالا توصیف می‌کند. OpenAI مقالاتی درمورد مدل‌های جدید خود منتشر می‌کند اما براساس اعلام لیانگ، این شرکت همیشه جزئیات کافی درمورد روش‌های کاری خود ارائه نداده است. او در بخشی از توضیحاتش گفت:

لیانگ می‌گوید خروجی نهایی یک مدل هوش مصنوعی تا حدود زیادی تحت‌تأثیر تنظیم دقیق و فیلترهای اعمال‌شده ازطرف انسان قرار دارد. توسعه‌دهندگان باید این‌کار را انجام دهند تا از خروجی مدل متن یا تصاویری که نادرست، سمی یا مغرضانه که به‌نفع برخی از کاربران و ضد سایرین است جلوگیری کنند. به‌عنوان مثال اگر از نسخه‌ی اولیه‌ی مدل GPT-3 OpenAI بخواهید داستان کوتاهی درمورد یک پزشک بنویسد، شخصی دکتر همیشه مرد خواهد بود. زمانی‌که ChatGPT منتشر شد، این سوگیری از بین رفت و چنین مشکلاتی احتمالاً با آموزش‌های اضافه برطرف شده‌اند. البته این فقط یک نمونه است و به‌احتمال زیاد صدها مورد دیگر وجود دارد که باید به آن‌ها رسیدگی شود.

به گفته‌ی لیانگ، OpenAI تمایل دارد درمورد همسویی ارزش‌ها صحبت کند و بنابراین این مدل‌ها با ارزش‌های انسانی همسو خواهند شد. به‌همین دلیل انتظار نمی‌رسد چنین مدل‌هایی، کارهای خطرناک انجام دهند اما درمورد ارزش‌های چه کسانی صحبت می‌کنیم؟ این ارزش‌ها دقیقاً به‌چه مواردی اشاره دارند؟ درحال‌حاضر هیچ اطلاعاتی درمورد این ارزش‌ها وجود ندارد و نوع فرآیند تصمیم‌گیری هوش‌ مصنوعی نیز مبهم است.

OpenAI برخی از این مشکلات را با ارائه‌ی عمومی ChatGPT برطرف کرد. این پلتفرم حتی برنامه‌ای برای ارائه‌ی جایزه‌ی شناسایی تعصب دارد و کاربران می‌توانند خروجی نادرست یا مغرضانه را در ازای شانس برنده‌شدن ۵۰۰ دلار اعتبار API گزارش دهند. گوگل تمایلی به افشای جزئیات درمورد محصولات و قابلیت‌های هوش مصنوعی خود ندارد. البته سرعت سرسام‌آور رشد هوش مصنوعی می‌تواند به این شرکت و سایر بزرگان فناوری فشار وارد کند تا مدل‌های جدید را فقط پس از رفع همه‌ی مشکلات احتمالی آن‌ها منتشر کنند.

منبع: FastCompany

Adblock test (Why?)

منبع خبر


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.