مایکروسافت پشتیبانی از DeepSeek در سرورهای خودش را شروع کرد

بهروز فیض
توسط:
0

 به نظر می‌رسد که شریک و همکار نزدیک مایکروسافت، OpenAI، تلویحاً اشاره دارد که DeepSeek مالکیت فکری (IP) آن را سرقت کرده و شرایط خدماتش را نقض کرده است. اما با این حال، مایکروسافت همچنان علاقه دارد مدل‌های جدید و پیشرفته‌ی DeepSeek را روی پلتفرم ابری خود داشته باشد.



امروز مایکروسافت اعلام کرد که R1، مدل موسوم به استدلال (reasoning model) شرکت DeepSeek، در سرویس Azure AI Foundry در دسترس قرار گرفته است. Azure AI Foundry پلتفرمی است که مجموعه‌ای از خدمات هوش مصنوعی را برای شرکت‌ها تحت یک چتر واحد ارائه می‌دهد. در یک پست وبلاگی، مایکروسافت تأکید کرد که نسخه‌ی R1 که در این پلتفرم ارائه شده، "تحت آزمایش‌های دقیق امنیتی و ارزیابی‌های ایمنی قرار گرفته است" که شامل "ارزیابی‌های خودکار رفتار مدل و بررسی‌های امنیتی گسترده برای کاهش ریسک‌های احتمالی" می‌شود.


مایکروسافت همچنین اعلام کرد که در آینده‌ای نزدیک، مشتریان خواهند توانست نسخه‌های "تقطیر شده" R1 را به‌صورت محلی روی کامپیوترهای Copilot+ اجرا کنند. Copilot+ برند جدیدی از سخت‌افزارهای ویندوزی مایکروسافت است که استانداردهای مشخصی برای آمادگی در حوزه‌ی هوش مصنوعی دارد.


در ادامه‌ی پست، مایکروسافت نوشت:
"با ادامه‌ی گسترش کاتالوگ مدل‌های Azure AI Foundry، مشتاقیم ببینیم که توسعه‌دهندگان و شرکت‌ها چگونه از R1 برای حل چالش‌های دنیای واقعی و ارائه‌ی تجربیات تحول‌آفرین استفاده می‌کنند."


اما اضافه شدن R1 به خدمات ابری مایکروسافت حرکتی جالب و بحث‌برانگیز است، چرا که گزارش‌ها حاکی از آن است که خود مایکروسافت تحقیقاتی را درباره‌ی سوءاستفاده‌ی احتمالی DeepSeek از خدمات OpenAI و مایکروسافت آغاز کرده است. به گفته‌ی محققان امنیتی مایکروسافت، DeepSeek ممکن است در پاییز ۲۰۲۴ حجم زیادی از داده‌ها را از طریق APIهای OpenAI استخراج کرده باشد. طبق گزارش بلومبرگ، مایکروسافت که بزرگ‌ترین سهام‌دار OpenAI نیز محسوب می‌شود، این فعالیت‌های مشکوک را به OpenAI اطلاع داده است.


اما R1 در کانون توجه قرار دارد، و به نظر می‌رسد مایکروسافت به این نتیجه رسیده که تا زمانی که این مدل همچنان جذابیت دارد، باید آن را به اکوسیستم ابری خود بیاورد.


البته مشخص نیست که مایکروسافت آیا تغییری در مدل R1 ایجاد کرده تا دقت آن را بهبود بخشد یا سانسور آن را تعدیل کند. آزمایش‌های NewsGuard، سازمان بررسی اعتبار اطلاعات، نشان داده که R1 در ۸۳٪ مواقع به سؤالات مربوط به اخبار پاسخ‌های نادرست یا ناقص می‌دهد. در آزمایش جداگانه‌ای نیز مشخص شد که این مدل ۸۵٪ از درخواست‌های مربوط به چین را رد می‌کند، که احتمالاً نتیجه‌ی سانسور دولتی است که بر مدل‌های هوش مصنوعی توسعه‌یافته در چین اعمال می‌شود.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)