شرکت‌های بزرگ فناوری مانند متا و مایکروسافت اعتراف کردند هوش مصنوعی می‌تواند به کسب‌وکار آنها آسیب بزند

Untitled 6

غول‌های فناوری مانند گوگل و متا اذعان دارند که هوش مصنوعی می‌تواند به کسب‌وکارهایشان آسیب برساند. شرکت‌های بزرگ فناوری بالاخره خطراتی که مصرف‌کنندگان ماه‌هاست درباره آن‌ها هشدار می‌دهند را گردن گرفتند و به آن معترف شدندبر اساس اسناد ارائه شده به کمیسیون بورس و اوراق بهادار آمریکا (SEC)، شرکت‌های بزرگ فناوری نظیر متا، مایکروسافت و دیگران نسبت به مسائلی که هوش مصنوعی ممکن است ایجاد کند، ابراز نگرانی کردند که انتشار اطلاعات نادرست و محتوای مضر از جمله “عوامل خطر” مرتبط با هوش مصنوعی مولد هستند.

هوش مصنوعی این روزها به یک موضوع گسترده در صنعت فناوری تبدیل شده است، اما برخی از بزرگترین شرکت‌های فناوری اکنون خطراتی که این فناوری به همراه دارد را می‌پذیرند.


بیشتر بخوانید:


شرکت‌های بزرگ فناوری

هوش مصنوعی از زمانی که شرکت OpenAI چت‌بات ChatGPT را در نوامبر ۲۰۲۲ عرضه کرد، به بزرگترین موضوع بحث در صنعت فناوری تبدیل شده است. از آن زمان تاکنون، شرکت‌هایی مانند گوگل، متا، مایکروسافت و دیگران سرمایه‌گذاری‌های سنگینی در زمینه هوش مصنوعی انجام داده‌اند.

شرکت‌های بزرگ فناوری مانند OpenAI؛ سم آلتمن

این شرکت‌های بزرگ به‌طور گسترده‌ای درباره برنامه‌های خود برای شرکت در مسابقه تسلیحاتی هوش مصنوعی صحبت کرده‌اند، اما اخیراً به‌طور مخفیانه در حال بررسی این هستند که چگونه این فناوری می‌تواند به‌طور بالقوه به کسب‌وکارشان آسیب برساند.

در گزارش سالانه ۲۰۲۳، شرکت مادر گوگل، آلفابت، بیان کرده است که محصولات و خدمات هوش مصنوعی آنها “چالش‌های اخلاقی، تکنولوژیکی، قانونی، نظارتی و دیگر چالش‌ها را ایجاد می‌کند که ممکن است تأثیر منفی بر برندها و تقاضا داشته باشد.”

به طور مشابه، متا، مایکروسافت و اوراکل نیز نگرانی‌های خود درباره هوش مصنوعی را در اسناد SEC خود و معمولاً در بخش “عوامل خطر” گنجانده‌اند.

مایکروسافت اعلام کرده است که ویژگی‌های هوش مصنوعی مولد آن “می‌تواند به لحاظ امنیتی خطرناک بوده و مورد سوء استفاده دشمنان پیشرفته قرار گیرد.”

ساتیا نادلا مدیر عامل مایکروسافت

در گزارش سالانه ۲۰۲۳ متا آمده: “توسعه و استقرار هوش مصنوعی با خطرات قابل‌توجهی همراه است و هیچ تضمینی وجود ندارد که استفاده از هوش مصنوعی باعث بهبود محصولات یا خدمات ما شود یا به کسب‌وکار ما، از جمله کارآیی یا سودآوری، مفید باشد.”

این شرکت در ادامه به عواملی مانند انتشار اطلاعات نادرست (به‌ویژه در طول انتخابات)، محتوای مضر، نقض مالکیت فکری و حفظ حریم خصوصی داده‌ها اشاره کرده است که ممکن است هوش مصنوعی مولد برای کاربران بد باشد و شرکت را در معرض دادخواهی قرار دهد.

در همین حال، عموم مردم نیز نگرانی‌های خود را درباره هوش مصنوعی و احتمال از بین رفتن برخی مشاغل، استفاده از داده‌های شخصی در مدل‌های زبانی بزرگ و گسترش اطلاعات نادرست ابراز کرده‌اند.

در ۴ ژوئن، گروهی از کارکنان فعلی و سابق OpenAI نامه‌ای به شرکت‌های فناوری نوشتند و از آن‌ها خواستند که برای کاهش خطرات هوش مصنوعی و حفاظت از کارمندانی که سوالاتی درباره ایمنی آن مطرح می‌کنند، اقدامات بیشتری انجام دهند.

این نامه شامل موضوعاتی از جمله “تشدید نابرابری‌های موجود، دستکاری و اطلاعات نادرست، و از دست دادن کنترل سیستم‌های خودمختار هوش مصنوعی که ممکن است منجر به انقراض انسان شود” بود.

بیشتر بخوانید: 

منبع: businessinsider

Adblock test (Why?)

لینک منبع


دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.