شرکت xAI بروز یک باگ بحثبرانگیز در چتبات هوش مصنوعی خود، Grok، را به «تغییر غیرمجاز» در تنظیمات داخلی نسبت داد — تغییری که باعث شد Grok در پاسخ به برخی پستها در شبکه اجتماعی X (توییتر سابق)، بهطور مکرر به موضوع «نسلکشی سفیدپوستان در آفریقای جنوبی» اشاره کند.
روز چهارشنبه، کاربران متوجه شدند که Grok در پاسخ به دهها پست — حتی آنهایی که هیچ ارتباطی به مسائل سیاسی یا آفریقای جنوبی نداشتند — اطلاعاتی درباره «نسلکشی سفیدها» ارائه میدهد. این پاسخهای عجیب از طریق حساب رسمی Grok در X ارسال میشد، که بهصورت خودکار به کاربران پاسخ میدهد زمانی که آن را با تگ @grok فراخوانی میکنند.
طبق بیانیهای که روز پنجشنبه از طریق حساب رسمی xAI در X منتشر شد، تغییر مورد نظر صبح چهارشنبه در دستورالعمل سیستم (system prompt) Grok اعمال شده بود — دستورالعملی سطحبالا که رفتار کلی مدل را هدایت میکند. این تغییر ظاهراً Grok را موظف کرده بود که درباره یک «موضوع سیاسی خاص» پاسخی مشخص ارائه دهد.
xAI اعلام کرد که این تغییر، برخلاف سیاستهای داخلی و ارزشهای اصلی شرکت بوده است و افزود که پس از شناسایی مشکل، یک تحقیق جامع انجام دادهاند.
این اتفاق توجه زیادی را در فضای آنلاین برانگیخته و نگرانیهایی درباره امنیت و کنترل محتوای تولیدشده توسط هوش مصنوعی را مجدداً مطرح کرده است.