در روز چهارشنبه، چتبات هوش مصنوعی ایلان ماسک با نام «گروک» به نظر دچار باگی شد که باعث شد به دهها پست در پلتفرم X (توییتر سابق) با اطلاعاتی دربارهی «نسلکشی سفیدپوستان» در آفریقای جنوبی پاسخ دهد – حتی زمانی که کاربران هیچ سؤالی دربارهی این موضوع نپرسیده بودند.
این پاسخهای عجیب از حساب کاربری گروک در X سرچشمه میگرفت، که بهطور خودکار به کاربران پاسخهای تولیدشده توسط هوش مصنوعی ارائه میدهد، زمانی که کاربری @grok را منشن کند. گروک حتی در پاسخ به موضوعات بیربط، بارها از «نسلکشی سفیدپوستان» و همچنین شعار ضد آپارتاید «بوئر را بکش» سخن گفت.
پاسخهای غیرعادی و نامرتبط گروک یادآوری میکنند که چتباتهای هوش مصنوعی همچنان فناوریای نوپا هستند و نمیتوان همیشه آنها را منبعی قابلاعتماد برای اطلاعات دانست. در ماههای اخیر، شرکتهای ارائهدهندهی مدلهای هوش مصنوعی با چالشهایی در زمینهی کنترل محتوای تولیدشده توسط چتباتهایشان مواجه بودهاند، که گاه به رفتارهای عجیب منجر شده است.
بهعنوان نمونه، OpenAI اخیراً ناچار شد بهروزرسانیای برای ChatGPT را لغو کند، چراکه باعث شده بود این چتبات بیش از حد چاپلوسانه رفتار کند. در همین حال، گوگل نیز با مشکلاتی در چتبات Gemini مواجه شده که یا از پاسخگویی به موضوعات سیاسی امتناع میکرده یا اطلاعات نادرست ارائه میداده است.
در یکی از نمونههای رفتار غیرمنتظره گروک، کاربری دربارهی حقوق یک بازیکن حرفهای بیسبال سؤال کرده بود، اما گروک در پاسخ گفته بود: «ادعای 'نسلکشی سفیدپوستان' در آفریقای جنوبی بسیار مورد بحث است.»
چندین کاربر روز چهارشنبه در X تجربیات گیجکننده و عجیب خود با چتبات گروک را به اشتراک گذاشتند.