پوزیشن شغلی جدید در OpenAI با عنوان بررسی خطرات نوظهور مرتبط با هوش مصنوعی

بهروز فیض
0

 OpenAI به دنبال استخدام یک مدیر ارشد جدید است که وظیفه‌اش بررسی خطرات نوظهور مرتبط با هوش مصنوعی خواهد بود؛ خطراتی که از امنیت سایبری تا تأثیرات احتمالی بر سلامت روان را در بر می‌گیرد.



سم آلتمن، مدیرعامل OpenAI، در پستی در شبکه اجتماعی X نوشت که مدل‌های هوش مصنوعی «در حال ایجاد چالش‌های واقعی» هستند؛ از جمله «تأثیر احتمالی مدل‌ها بر سلامت روان» و همچنین مدل‌هایی که «در امنیت کامپیوتر آن‌قدر توانمند شده‌اند که می‌توانند آسیب‌پذیری‌های مهم را پیدا کنند».

او در ادامه نوشت اگر کسی می‌خواهد به جهان کمک کند تا بفهمد چگونه می‌توان توانمندی‌های پیشرفته را در اختیار مدافعان امنیت سایبری قرار داد، بدون اینکه مهاجمان بتوانند از آن‌ها برای آسیب‌رسانی استفاده کنند، و همچنین چگونه می‌توان قابلیت‌های زیستی یا سیستم‌های خودبهبود را با اطمینان بیشتری منتشر کرد، می‌تواند برای این شغل درخواست دهد.

در آگهی استخدام OpenAI برای سمت «رئیس بخش آمادگی»، این نقش مسئول اجرای چارچوب آمادگی شرکت معرفی شده؛ چارچوبی که توضیح می‌دهد OpenAI چگونه توانایی‌های پیشرفته‌ای را که ممکن است خطرات جدی ایجاد کنند، رصد و مدیریت می‌کند.

این شرکت نخستین‌بار در سال ۲۰۲۳ تشکیل تیم آمادگی را اعلام کرد و گفت این تیم وظیفه دارد خطرات «فاجعه‌بار» احتمالی را بررسی کند؛ چه خطرات فوری مانند حملات فیشینگ و چه تهدیدهای دورتر مانند خطرات هسته‌ای.

کمتر از یک سال بعد، OpenAI مدیر این بخش، الکساندر مدری، را به سمت جدیدی در حوزه استدلال هوش مصنوعی منتقل کرد. برخی دیگر از مدیران حوزه ایمنی نیز از شرکت جدا شده‌اند یا نقش‌های جدیدی خارج از بخش ایمنی و آمادگی گرفته‌اند.

OpenAI همچنین اخیراً چارچوب آمادگی خود را به‌روزرسانی کرده و اعلام کرده است که ممکن است الزامات ایمنی خود را در صورتی تغییر دهد که یک آزمایشگاه رقیب، مدلی «پرخطر» را بدون محافظت‌های مشابه منتشر کند.

برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default