بر اساس گزارشی از Financial Times، شرکت OpenAI عملیات امنیتی خود را بهطور جدی بازنگری و تقویت کرده تا در برابر جاسوسی صنعتی از خود محافظت کند. این اقدام پس از آن سرعت گرفت که استارتاپ چینی DeepSeek در ژانویه مدل رقیبی منتشر کرد — مدلی که OpenAI ادعا میکند با استفاده از تکنیکهای «دیستیلیشن» (distillation) بهصورت غیرمجاز از مدلهای این شرکت کپیبرداری شده است.
در قالب این امنیت تشدیدشده، سیاستهایی موسوم به «information tenting» اجرا شدهاند که دسترسی کارکنان به الگوریتمها و پروژههای حساس را محدود میکنند. بهعنوان نمونه، در طول توسعهی مدل o1، تنها اعضای تیم تأییدشده و مطلع اجازه داشتند در فضاهای کاری مشترک درباره پروژه صحبت کنند.
اما این تنها بخشی از اقدامات جدید است. بر اساس گزارش FT:
- فناوریهای اختصاصی اکنون در سیستمهای کامپیوتری آفلاین نگهداری میشوند؛
- دسترسی به برخی مناطق شرکت تنها با اثر انگشت یا روشهای بیومتریک امکانپذیر است؛
- سیاست «deny-by-default» در اینترنت اعمال شده، به این معنا که تمام ارتباطات بیرونی نیاز به تأیید صریح دارند؛
- امنیت فیزیکی در مراکز داده ارتقاء یافته؛
- تیم امنیت سایبری شرکت نیز گسترش یافته است.
این تغییرات، به گفته منابع آگاه، بازتابی از نگرانیهای گستردهتر نسبت به سرقت مالکیت فکری توسط بازیگران خارجی است. با این حال، با توجه به رقابت فزاینده بین شرکتهای آمریکایی فعال در هوش مصنوعی و نشت مکرر اظهارات مدیرعامل سم آلتمن، بهنظر میرسد OpenAI همچنین در پی رفع چالشهای امنیت داخلی خود نیز هست.
ما برای دریافت اظهارنظر رسمی با OpenAI تماس گرفتهایم.