اگر دست به کار خطرناک بخواهید بزنید ChatGPT نزدیکان شما را مطلع می کند

بهروز فیض
0

 OpenAI روز پنج‌شنبه از قابلیت جدیدی به نام «Trusted Contact» رونمایی کرد؛ قابلیتی که برای هشدار دادن به یک فرد مورد اعتماد در صورت مطرح شدن موضوع خودآزاری یا خودکشی در گفتگوهای کاربران طراحی شده است.



این ویژگی به کاربران بزرگسال ChatGPT اجازه می‌دهد فردی مانند یکی از اعضای خانواده یا دوستان خود را به‌عنوان مخاطب مورد اعتماد در حساب کاربری‌شان معرفی کنند. اگر در جریان گفتگو نشانه‌هایی از تمایل به خودآزاری مشاهده شود، OpenAI کاربر را تشویق می‌کند با آن فرد تماس بگیرد. همچنین یک هشدار خودکار برای مخاطب مورد اعتماد ارسال می‌شود تا وضعیت کاربر را پیگیری کند.

OpenAI در ماه‌های اخیر با چندین شکایت حقوقی از سوی خانواده افرادی روبه‌رو شده که پس از گفتگو با چت‌بات این شرکت دست به خودکشی زده‌اند. خانواده‌ها در برخی پرونده‌ها ادعا کرده‌اند ChatGPT عزیزانشان را به خودکشی تشویق کرده یا حتی در برنامه‌ریزی آن به آن‌ها کمک کرده است.

این شرکت در حال حاضر برای مدیریت موارد خطرناک احتمالی، از ترکیبی از سیستم‌های خودکار و بررسی انسانی استفاده می‌کند. برخی نشانه‌ها و کلیدواژه‌های موجود در گفتگوها، سامانه OpenAI را نسبت به احتمال افکار خودکشی حساس می‌کند و سپس این موارد به تیم انسانی ایمنی ارجاع داده می‌شود.

OpenAI می‌گوید تمام هشدارهای مرتبط با ایمنی توسط انسان بررسی می‌شوند و این شرکت تلاش می‌کند این نوع گزارش‌ها را در کمتر از یک ساعت ارزیابی کند.

برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default