OpenAI به دنبال استخدام یک مدیر ارشد جدید است که وظیفهاش بررسی خطرات نوظهور مرتبط با هوش مصنوعی خواهد بود؛ خطراتی که از امنیت سایبری تا تأثیرات احتمالی بر سلامت روان را در بر میگیرد.
سم آلتمن، مدیرعامل OpenAI، در پستی در شبکه اجتماعی X نوشت که مدلهای هوش مصنوعی «در حال ایجاد چالشهای واقعی» هستند؛ از جمله «تأثیر احتمالی مدلها بر سلامت روان» و همچنین مدلهایی که «در امنیت کامپیوتر آنقدر توانمند شدهاند که میتوانند آسیبپذیریهای مهم را پیدا کنند».
او در ادامه نوشت اگر کسی میخواهد به جهان کمک کند تا بفهمد چگونه میتوان توانمندیهای پیشرفته را در اختیار مدافعان امنیت سایبری قرار داد، بدون اینکه مهاجمان بتوانند از آنها برای آسیبرسانی استفاده کنند، و همچنین چگونه میتوان قابلیتهای زیستی یا سیستمهای خودبهبود را با اطمینان بیشتری منتشر کرد، میتواند برای این شغل درخواست دهد.
در آگهی استخدام OpenAI برای سمت «رئیس بخش آمادگی»، این نقش مسئول اجرای چارچوب آمادگی شرکت معرفی شده؛ چارچوبی که توضیح میدهد OpenAI چگونه تواناییهای پیشرفتهای را که ممکن است خطرات جدی ایجاد کنند، رصد و مدیریت میکند.
این شرکت نخستینبار در سال ۲۰۲۳ تشکیل تیم آمادگی را اعلام کرد و گفت این تیم وظیفه دارد خطرات «فاجعهبار» احتمالی را بررسی کند؛ چه خطرات فوری مانند حملات فیشینگ و چه تهدیدهای دورتر مانند خطرات هستهای.
کمتر از یک سال بعد، OpenAI مدیر این بخش، الکساندر مدری، را به سمت جدیدی در حوزه استدلال هوش مصنوعی منتقل کرد. برخی دیگر از مدیران حوزه ایمنی نیز از شرکت جدا شدهاند یا نقشهای جدیدی خارج از بخش ایمنی و آمادگی گرفتهاند.
OpenAI همچنین اخیراً چارچوب آمادگی خود را بهروزرسانی کرده و اعلام کرده است که ممکن است الزامات ایمنی خود را در صورتی تغییر دهد که یک آزمایشگاه رقیب، مدلی «پرخطر» را بدون محافظتهای مشابه منتشر کند.

