OpenAI روز پنجشنبه از قابلیت جدیدی به نام «Trusted Contact» رونمایی کرد؛ قابلیتی که برای هشدار دادن به یک فرد مورد اعتماد در صورت مطرح شدن موضوع خودآزاری یا خودکشی در گفتگوهای کاربران طراحی شده است.
این ویژگی به کاربران بزرگسال ChatGPT اجازه میدهد فردی مانند یکی از اعضای خانواده یا دوستان خود را بهعنوان مخاطب مورد اعتماد در حساب کاربریشان معرفی کنند. اگر در جریان گفتگو نشانههایی از تمایل به خودآزاری مشاهده شود، OpenAI کاربر را تشویق میکند با آن فرد تماس بگیرد. همچنین یک هشدار خودکار برای مخاطب مورد اعتماد ارسال میشود تا وضعیت کاربر را پیگیری کند.
OpenAI در ماههای اخیر با چندین شکایت حقوقی از سوی خانواده افرادی روبهرو شده که پس از گفتگو با چتبات این شرکت دست به خودکشی زدهاند. خانوادهها در برخی پروندهها ادعا کردهاند ChatGPT عزیزانشان را به خودکشی تشویق کرده یا حتی در برنامهریزی آن به آنها کمک کرده است.
این شرکت در حال حاضر برای مدیریت موارد خطرناک احتمالی، از ترکیبی از سیستمهای خودکار و بررسی انسانی استفاده میکند. برخی نشانهها و کلیدواژههای موجود در گفتگوها، سامانه OpenAI را نسبت به احتمال افکار خودکشی حساس میکند و سپس این موارد به تیم انسانی ایمنی ارجاع داده میشود.
OpenAI میگوید تمام هشدارهای مرتبط با ایمنی توسط انسان بررسی میشوند و این شرکت تلاش میکند این نوع گزارشها را در کمتر از یک ساعت ارزیابی کند.
