علل مشکلات گروک در رفرنس دهی مشخص شد

بهروز فیض
توسط:
0

 شرکت xAI بروز یک باگ بحث‌برانگیز در چت‌بات هوش مصنوعی خود، Grok، را به «تغییر غیرمجاز» در تنظیمات داخلی نسبت داد — تغییری که باعث شد Grok در پاسخ به برخی پست‌ها در شبکه اجتماعی X (توییتر سابق)، به‌طور مکرر به موضوع «نسل‌کشی سفیدپوستان در آفریقای جنوبی» اشاره کند.



روز چهارشنبه، کاربران متوجه شدند که Grok در پاسخ به ده‌ها پست — حتی آن‌هایی که هیچ ارتباطی به مسائل سیاسی یا آفریقای جنوبی نداشتند — اطلاعاتی درباره «نسل‌کشی سفیدها» ارائه می‌دهد. این پاسخ‌های عجیب از طریق حساب رسمی Grok در X ارسال می‌شد، که به‌صورت خودکار به کاربران پاسخ می‌دهد زمانی که آن را با تگ @grok فراخوانی می‌کنند.

طبق بیانیه‌ای که روز پنج‌شنبه از طریق حساب رسمی xAI در X منتشر شد، تغییر مورد نظر صبح چهارشنبه در دستورالعمل سیستم (system prompt) Grok اعمال شده بود — دستورالعملی سطح‌بالا که رفتار کلی مدل را هدایت می‌کند. این تغییر ظاهراً Grok را موظف کرده بود که درباره یک «موضوع سیاسی خاص» پاسخی مشخص ارائه دهد.

xAI اعلام کرد که این تغییر، برخلاف سیاست‌های داخلی و ارزش‌های اصلی شرکت بوده است و افزود که پس از شناسایی مشکل، یک تحقیق جامع انجام داده‌اند.

این اتفاق توجه زیادی را در فضای آنلاین برانگیخته و نگرانی‌هایی درباره امنیت و کنترل محتوای تولیدشده توسط هوش مصنوعی را مجدداً مطرح کرده است.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)