اقدامات امنیتی شدیدتر در OpenAI برای مقابله با چشمان کنجکاو

بهروز فیض
توسط:
0

بر اساس گزارشی از Financial Times، شرکت OpenAI عملیات امنیتی خود را به‌طور جدی بازنگری و تقویت کرده تا در برابر جاسوسی صنعتی از خود محافظت کند. این اقدام پس از آن سرعت گرفت که استارتاپ چینی DeepSeek در ژانویه مدل رقیبی منتشر کرد — مدلی که OpenAI ادعا می‌کند با استفاده از تکنیک‌های «دیستیلیشن» (distillation) به‌صورت غیرمجاز از مدل‌های این شرکت کپی‌برداری شده است.



در قالب این امنیت تشدیدشده، سیاست‌هایی موسوم به «information tenting» اجرا شده‌اند که دسترسی کارکنان به الگوریتم‌ها و پروژه‌های حساس را محدود می‌کنند. به‌عنوان نمونه، در طول توسعه‌ی مدل o1، تنها اعضای تیم تأییدشده و مطلع اجازه داشتند در فضاهای کاری مشترک درباره پروژه صحبت کنند.

اما این تنها بخشی از اقدامات جدید است. بر اساس گزارش FT:

  • فناوری‌های اختصاصی اکنون در سیستم‌های کامپیوتری آفلاین نگهداری می‌شوند؛
  • دسترسی به برخی مناطق شرکت تنها با اثر انگشت یا روش‌های بیومتریک امکان‌پذیر است؛
  • سیاست «deny-by-default» در اینترنت اعمال شده، به این معنا که تمام ارتباطات بیرونی نیاز به تأیید صریح دارند؛
  • امنیت فیزیکی در مراکز داده ارتقاء یافته؛
  • تیم امنیت سایبری شرکت نیز گسترش یافته است.

این تغییرات، به گفته منابع آگاه، بازتابی از نگرانی‌های گسترده‌تر نسبت به سرقت مالکیت فکری توسط بازیگران خارجی است. با این حال، با توجه به رقابت فزاینده بین شرکت‌های آمریکایی فعال در هوش مصنوعی و نشت مکرر اظهارات مدیرعامل سم آلتمن، به‌نظر می‌رسد OpenAI همچنین در پی رفع چالش‌های امنیت داخلی خود نیز هست.

ما برای دریافت اظهارنظر رسمی با OpenAI تماس گرفته‌ایم.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)