ما بهعنوان کاربران عادی میتوانیم بنشینیم و شاهد نبرد میان شرکتها باشیم و از نتایج آن لذت ببریم. البته در این میان یک عنصر خطر هم وجود دارد. سرعت توسعهی هوش مصنوعی احتمالاً پساز ورود ChatGPT افزایش خواهد یافت. همانطور که رقابت شدیدتر میشود، پنهانکاریها نیز افزایش مییابند. از آنجا که شرکتهای بزرگ حوزهی فناوری روی تحقیق و توسعهی هوش مصنوعی سرمایهگذاریهای زیادی انجام میدهند، شاید تمایل کمتری به افشای جزئیات مدلهای خود و روش کارکرد آنها در مقالات تحقیقاتی داشته باشند.
پرسی لیانگ، مدیر مرکز تحقیقات مدلهای بنیادی گروه هوش مصنوعی استنفورد میگوید سطح عمومی و باز بودن علمی جامعهی تحقیقاتی هوش مصنوعی درسال گذشته تا حدودی کاهش یافته است. لیانگ همچنین اهمیت انتشار جزئیات مربوط به مدلها و روش کارکرد آنها و همچنین سیاستهای آموزشی مرتبط با هوش مصنوعی را بالا توصیف میکند. OpenAI مقالاتی درمورد مدلهای جدید خود منتشر میکند اما براساس اعلام لیانگ، این شرکت همیشه جزئیات کافی درمورد روشهای کاری خود ارائه نداده است. او در بخشی از توضیحاتش گفت:
لیانگ میگوید خروجی نهایی یک مدل هوش مصنوعی تا حدود زیادی تحتتأثیر تنظیم دقیق و فیلترهای اعمالشده ازطرف انسان قرار دارد. توسعهدهندگان باید اینکار را انجام دهند تا از خروجی مدل متن یا تصاویری که نادرست، سمی یا مغرضانه که بهنفع برخی از کاربران و ضد سایرین است جلوگیری کنند. بهعنوان مثال اگر از نسخهی اولیهی مدل GPT-3 OpenAI بخواهید داستان کوتاهی درمورد یک پزشک بنویسد، شخصی دکتر همیشه مرد خواهد بود. زمانیکه ChatGPT منتشر شد، این سوگیری از بین رفت و چنین مشکلاتی احتمالاً با آموزشهای اضافه برطرف شدهاند. البته این فقط یک نمونه است و بهاحتمال زیاد صدها مورد دیگر وجود دارد که باید به آنها رسیدگی شود.
به گفتهی لیانگ، OpenAI تمایل دارد درمورد همسویی ارزشها صحبت کند و بنابراین این مدلها با ارزشهای انسانی همسو خواهند شد. بههمین دلیل انتظار نمیرسد چنین مدلهایی، کارهای خطرناک انجام دهند اما درمورد ارزشهای چه کسانی صحبت میکنیم؟ این ارزشها دقیقاً بهچه مواردی اشاره دارند؟ درحالحاضر هیچ اطلاعاتی درمورد این ارزشها وجود ندارد و نوع فرآیند تصمیمگیری هوش مصنوعی نیز مبهم است.
OpenAI برخی از این مشکلات را با ارائهی عمومی ChatGPT برطرف کرد. این پلتفرم حتی برنامهای برای ارائهی جایزهی شناسایی تعصب دارد و کاربران میتوانند خروجی نادرست یا مغرضانه را در ازای شانس برندهشدن ۵۰۰ دلار اعتبار API گزارش دهند. گوگل تمایلی به افشای جزئیات درمورد محصولات و قابلیتهای هوش مصنوعی خود ندارد. البته سرعت سرسامآور رشد هوش مصنوعی میتواند به این شرکت و سایر بزرگان فناوری فشار وارد کند تا مدلهای جدید را فقط پس از رفع همهی مشکلات احتمالی آنها منتشر کنند.
منبع: FastCompany
دیدگاهتان را بنویسید