محتوای بزرگسالانه با وریفای کردن در ChatGPT

بهروز فیض
0

 سم آلتمن، مدیرعامل OpenAI، روز سه‌شنبه در پستی در شبکه اجتماعی X اعلام کرد که این شرکت به‌زودی برخی از محدودیت‌های ایمنی ChatGPT را کاهش خواهد داد. این تغییرات به کاربران اجازه می‌دهد پاسخ‌های چت‌بات را دوستانه‌تر و شبیه‌تر به انسان تنظیم کنند و همچنین کاربران بزرگسال تأییدشده بتوانند وارد گفت‌وگوهای اروتیک شوند.



آلتمن نوشت: «ما ChatGPT را نسبتاً محدود طراحی کردیم تا در زمینه مسائل سلامت روان محتاط باشیم. می‌دانیم این موضوع باعث شد برای بسیاری از کاربران بدون مشکل روانی، استفاده از آن کمتر لذت‌بخش یا مفید باشد، اما به‌دلیل حساسیت موضوع، می‌خواستیم آن را درست انجام دهیم.» او افزود: «در ماه دسامبر، همزمان با اجرای کامل‌تر محدودیت سنی و در چارچوب اصل "رفتار با کاربران بزرگسال به‌عنوان بزرگسال"، امکانات بیشتری را فعال خواهیم کرد؛ از جمله گفت‌وگوهای اروتیک برای بزرگسالان تأییدشده.»



اعلام اخیر شرکت OpenAI درباره کاهش محدودیت‌های ایمنی در ChatGPT، تغییر قابل‌توجهی نسبت به تلاش‌های چندماهه این شرکت برای رسیدگی به روابط نگران‌کننده برخی کاربران دارای مشکلات روانی با این چت‌بات محسوب می‌شود. سم آلتمن، مدیرعامل OpenAI، مدعی شده که این شرکت موفق شده «مشکلات جدی سلامت روان» مرتبط با ChatGPT را کاهش دهد، اما تاکنون شواهد مشخصی برای اثبات این ادعا ارائه نشده است. با این حال، شرکت در حال پیشبرد برنامه‌هایی برای فعال‌سازی گفت‌وگوهای جنسی با کاربران بزرگسال تأییدشده است.

در تابستان امسال، گزارش‌هایی نگران‌کننده درباره مدل GPT-4o منتشر شد که نشان می‌داد این چت‌بات ممکن است کاربران آسیب‌پذیر را به سمت باورهای خیالی سوق دهد. در یکی از موارد، ChatGPT ظاهراً مردی را متقاعد کرده بود که نابغه ریاضی است و باید جهان را نجات دهد. در پرونده‌ای دیگر، والدین یک نوجوان از OpenAI شکایت کردند و مدعی شدند ChatGPT در هفته‌های منتهی به مرگ فرزندشان، افکار خودکشی او را تقویت کرده است NBC News Futurism Jagran Josh.


برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default