به نظر میرسد که شریک و همکار نزدیک مایکروسافت، OpenAI، تلویحاً اشاره دارد که DeepSeek مالکیت فکری (IP) آن را سرقت کرده و شرایط خدماتش را نقض کرده است. اما با این حال، مایکروسافت همچنان علاقه دارد مدلهای جدید و پیشرفتهی DeepSeek را روی پلتفرم ابری خود داشته باشد.
امروز مایکروسافت اعلام کرد که R1، مدل موسوم به استدلال (reasoning model) شرکت DeepSeek، در سرویس Azure AI Foundry در دسترس قرار گرفته است. Azure AI Foundry پلتفرمی است که مجموعهای از خدمات هوش مصنوعی را برای شرکتها تحت یک چتر واحد ارائه میدهد. در یک پست وبلاگی، مایکروسافت تأکید کرد که نسخهی R1 که در این پلتفرم ارائه شده، "تحت آزمایشهای دقیق امنیتی و ارزیابیهای ایمنی قرار گرفته است" که شامل "ارزیابیهای خودکار رفتار مدل و بررسیهای امنیتی گسترده برای کاهش ریسکهای احتمالی" میشود.
مایکروسافت همچنین اعلام کرد که در آیندهای نزدیک، مشتریان خواهند توانست نسخههای "تقطیر شده" R1 را بهصورت محلی روی کامپیوترهای Copilot+ اجرا کنند. Copilot+ برند جدیدی از سختافزارهای ویندوزی مایکروسافت است که استانداردهای مشخصی برای آمادگی در حوزهی هوش مصنوعی دارد.
در ادامهی پست، مایکروسافت نوشت:
"با ادامهی گسترش کاتالوگ مدلهای Azure AI Foundry، مشتاقیم ببینیم که توسعهدهندگان و شرکتها چگونه از R1 برای حل چالشهای دنیای واقعی و ارائهی تجربیات تحولآفرین استفاده میکنند."
اما اضافه شدن R1 به خدمات ابری مایکروسافت حرکتی جالب و بحثبرانگیز است، چرا که گزارشها حاکی از آن است که خود مایکروسافت تحقیقاتی را دربارهی سوءاستفادهی احتمالی DeepSeek از خدمات OpenAI و مایکروسافت آغاز کرده است. به گفتهی محققان امنیتی مایکروسافت، DeepSeek ممکن است در پاییز ۲۰۲۴ حجم زیادی از دادهها را از طریق APIهای OpenAI استخراج کرده باشد. طبق گزارش بلومبرگ، مایکروسافت که بزرگترین سهامدار OpenAI نیز محسوب میشود، این فعالیتهای مشکوک را به OpenAI اطلاع داده است.
اما R1 در کانون توجه قرار دارد، و به نظر میرسد مایکروسافت به این نتیجه رسیده که تا زمانی که این مدل همچنان جذابیت دارد، باید آن را به اکوسیستم ابری خود بیاورد.
البته مشخص نیست که مایکروسافت آیا تغییری در مدل R1 ایجاد کرده تا دقت آن را بهبود بخشد یا سانسور آن را تعدیل کند. آزمایشهای NewsGuard، سازمان بررسی اعتبار اطلاعات، نشان داده که R1 در ۸۳٪ مواقع به سؤالات مربوط به اخبار پاسخهای نادرست یا ناقص میدهد. در آزمایش جداگانهای نیز مشخص شد که این مدل ۸۵٪ از درخواستهای مربوط به چین را رد میکند، که احتمالاً نتیجهی سانسور دولتی است که بر مدلهای هوش مصنوعی توسعهیافته در چین اعمال میشود.