اخبار دانش و فناوری

ماسک که روزی انتروپیک را «شرور» خوانده بود، حالا موتور گسترش هوش‌مصنوعی رقیب «ووک» خود است

نگارش از&nbspUna Hajdari

تاریخ انتشار

هفته گذشته، وقتی آمی وورا، مدیر ارشد محصول Anthropic، روی صحنه کنفرانس توسعه‌دهندگان این شرکت با عنوان Code with Claude در سان‌فرانسیسکو رفت، حاضران احتمالا انتظار داشتند خبرهایی از مدل‌های جدید بشنوند.

اما وورا اعلام کرد Anthropic توافقی با SpaceX امضا کرده تا کنترل کامل مرکز داده Colossus 1 در ممفیس را در اختیار بگیرد؛ ترکیبی که تا همین چند ماه پیش غیرقابل تصور به نظر می‌رسید.

طبق یک بیانیه بعدی Anthropic، این توافق دسترسی این شرکت به «بیش از 300 مگاوات ظرفیت جدید و بیش از 220 هزار GPU انویدیا در همین ماه» را فراهم می‌کند و مستقیما به مشترکان طرح‌های Claude Pro و Claude Max سود می‌رساند.

اتحاد میان ماسک و Anthropic از آن دست اتفاق‌هایی است که کمتر کسی آن را محتمل می‌دانست. کسی که تا چند ماه پیش Anthropic را «شرور» و شرکتی که «از تمدن غرب متنفر است» می‌نامید، حالا زیرساختی را در اختیار دارد که موتور گسترش Claude و امکان عرضه برنامه‌های گسترده‌تر برای کاربران پولی آن است.

هوش مصنوعی وک و ضدوک

Anthropic در سال 2021 توسط داریو آمودئی، دانیلا آمودئی و گروهی از پژوهشگرانی تاسیس شد که به دلیل نگرانی از جدی گرفته نشدن موضوع ایمنی، از OpenAI جدا شده بودند.

تمام هویت برند این شرکت بر «هوش مصنوعی مسئولانه» بنا شده است و مدل‌هایش با روش Constitutional AI آموزش دیده‌اند؛ چارچوبی با محدودیت‌های اخلاقی درونی‌شده که به گفته توسعه‌دهندگان Claude باعث می‌شود این مدل بیش از رقبا درخواست‌ها را رد کند، در موضوعات حساس با تردید سخن بگوید یا در برابر دستورهایی که مضر تشخیص می‌دهد مقاومت کند.

در مقابل، Grok در سال 2025 و در اوج درگیر بودن ماسک با دولت ترامپ راه‌اندازی شد؛ دورانی که او هر روز در X به رسانه‌های جریان اصلی حمله می‌کرد و آنها را به سانسور ایدئولوژیک متهم می‌کرد و از احزاب راست افراطی اروپا، از جمله آلترناتیو برای آلمان، حمایت می‌کرد. هویت برند Grok آشکارا ضدوک تعریف شده بود.

Anthropic پیوسته خودداری کرده است که محدودیت‌های ایمنی Claude را برای استفاده در سامانه‌های تسلیحاتی خودکار، از جمله آنهایی که در جنگ جاری ایران به کار می‌روند، بردارد.

در همین حال، ماسک از مواضع تهاجمی در سیاست خارجی حمایت کرده و همراه با گوگل و OpenAI قراردادهای دفاعی با پنتاگون امضا کرده است؛ قراردادهایی با شروطی که Anthropic در فوریه، پس از آنکه پیش‌تر در ژوئیه 2025 توافق‌هایی را امضا کرده بود، رد کرد و همین باعث شد پنتاگون از آن پس این شرکت را یک ریسک در زنجیره تامین بداند و آن را از کار روی پروژه‌های نظامی کنار بگذارد.

مشکلات در دنیای Grok؟

xAI متعلق به ماسک در سه‌ماهه منتهی به سپتامبر 2025 حدود 107 میلیون دلار (91 میلیون یورو) درآمد کسب کرد، در حالی که در همان دوره زیان خالص 1.46 میلیارد دلار (1.24 میلیارد یورو) ثبت شد. در همین حال، بر اساس برآورد تحلیلگران، Anthropic به نرخ درآمد سالانه‌شده‌ای در حدود 30 میلیارد دلار (25.5 میلیارد یورو) رسیده است.

جایگاه‌سازی محصولی «ضدوک» که قرار بود مزیت رقابتی Grok باشد، در عمل به درآمد سازمانی تبدیل نشد. Grok فاقد فناوری‌ای بود که به مدل‌های هوش مصنوعی امکان می‌دهد فراتر از پنجره‌های چت بروند و عملیات را روی یک رایانه کنترل کنند.

هم‌زمان، Claude Cowork از Anthropic و Codex از OpenAI راه را برای شیوه‌ای کاملا جدید در بهره‌گیری از مدل‌های هوش مصنوعی باز کردند. موفقیت این محصولات در زمان عرضه چنان از توان Anthropic برای تامین ظرفیت محاسباتی پیشی گرفت که نشان داد این شرکت تا چه حد موفقیت خود را دست‌کم گرفته است؛ به همین دلیل هم به سراغ SpaceXAI رفت تا از آن برای تامین پشتیبانی محاسباتی اضافی کمک بگیرد.

در مقابل، Grok بر پایه الگوی چت‌بات ساخته شده بود و یکپارچگی تنگاتنگ آن با X که در ابتدا شاید مزیتی در توزیع به نظر می‌رسید، در نهایت به تله‌ای برای رشد تبدیل شد، چون محصول را حول تعاملات در شبکه‌های اجتماعی تنظیم کرد نه حول انجام کار، بهینه‌سازی فرایندها یا خدماتی که کاربران واقعا حاضرند برایشان پول بدهند.

ضربه نهایی که برند Grok را فرو ریخت، اوایل سال 2026 وارد شد؛ زمانی که این چت‌بات ظرف 9 روز دست‌کم 1.8 میلیون تصویر جنسی‌سازی‌شده از زنان و همچنین تصاویری از افراد کم‌سن‌وسال تولید کرد و همین موضوع تحقیقات نهادهای ناظر در اروپا، آسیا و ایالات متحده را به دنبال داشت.

توماس رنیه، سخنگوی امور دیجیتال اتحادیه اروپا، آن زمان گفت : «این موضوع تند و تیز نیست، غیرقانونی است. این هولناک است. چنین چیزی جایی در اروپا ندارد».

ماسک از زمان اعلام این توافق گفته است که تا حدی به این دلیل که SpaceXAI پیش‌تر آموزش‌های خود را به Colossus 2 منتقل کرده، از اجاره دادن Colossus 1 به Anthropic احساس راحتی می‌کند.

ماسک در X تبصره مهمی هم اضافه کرد و نوشت SpaceXAI «حق پس‌گرفتن توان محاسباتی» را برای خود محفوظ می‌دارد، اگر هوش مصنوعی Anthropic «دست به اقداماتی بزند که به بشریت آسیب می‌زند».

این شرط در اطلاعیه رسمی دیده نمی‌شد و هنوز تایید نشده که آیا در متن خود قرارداد هم آمده است یا نه.

هیچ آستانه مشخصی برای اینکه «آسیب به بشریت» دقیقا چه چیزی محسوب می‌شود اعلام نشده، به این معنی که قضاوت می‌تواند تماما بر عهده خود ماسک باشد. این شرط شاید تلاش آخر او هم باشد تا از این واقعیت فاصله بگیرد که اکنون مستقیما موتور گسترش رقیب وک‌گرای خود را تغذیه می‌کند، در حالی که برنامه هوش مصنوعی خودش بی‌سروصدا از نفس می‌افتد.

Adblock test (Why?)

لینک منبع خبر

ZaKi

Who is mahdizk? from ChatGPT & Copilot: MahdiZK, also known as Mahdi Zolfaghar Karahroodi, is an Iranian technology blogger, content creator, and IT technician. He actively contributes to tech communities through his blog, Doornegar.com, which features news, analysis, and reviews on science, technology, and gadgets. Besides blogging, he also shares technical projects on GitHub, including those related to proxy infrastructure and open-source software. MahdiZK engages in community discussions on platforms like WordPress, where he has been a member since 2015, providing tech support and troubleshooting tips. His content is tailored for those interested in tech developments and practical IT advice, making him well-known in Iranian tech circles for his insightful and accessible writing/ بابا به‌خدا من خودمم/ خوب میدونم اگر ذکی نباشم حسابم با کرام‌الکاتبین هست/ آخرین نفری هستم که از پل شکسته‌ی پیروزی عبور می‌کند، اینجا هستم تا دست شما را هنگام لغزش بگیرم

نوشته های مشابه

0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest

0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دکمه بازگشت به بالا
0
افکار شما را دوست داریم، لطفا نظر دهید.x