گروک همه چیز را به نسل کشی سفیدپوستان گره زده !

بهروز فیض
توسط:
0

 در روز چهارشنبه، چت‌بات هوش مصنوعی ایلان ماسک با نام «گروک» به نظر دچار باگی شد که باعث شد به ده‌ها پست در پلتفرم X (توییتر سابق) با اطلاعاتی درباره‌ی «نسل‌کشی سفیدپوستان» در آفریقای جنوبی پاسخ دهد – حتی زمانی که کاربران هیچ سؤالی درباره‌ی این موضوع نپرسیده بودند.



این پاسخ‌های عجیب از حساب کاربری گروک در X سرچشمه می‌گرفت، که به‌طور خودکار به کاربران پاسخ‌های تولیدشده توسط هوش مصنوعی ارائه می‌دهد، زمانی که کاربری @grok را منشن کند. گروک حتی در پاسخ به موضوعات بی‌ربط، بارها از «نسل‌کشی سفیدپوستان» و همچنین شعار ضد آپارتاید «بوئر را بکش» سخن گفت.

پاسخ‌های غیرعادی و نامرتبط گروک یادآوری می‌کنند که چت‌بات‌های هوش مصنوعی همچنان فناوری‌ای نوپا هستند و نمی‌توان همیشه آن‌ها را منبعی قابل‌اعتماد برای اطلاعات دانست. در ماه‌های اخیر، شرکت‌های ارائه‌دهنده‌ی مدل‌های هوش مصنوعی با چالش‌هایی در زمینه‌ی کنترل محتوای تولیدشده توسط چت‌بات‌هایشان مواجه بوده‌اند، که گاه به رفتارهای عجیب منجر شده است.

به‌عنوان نمونه، OpenAI اخیراً ناچار شد به‌روزرسانی‌ای برای ChatGPT را لغو کند، چراکه باعث شده بود این چت‌بات بیش از حد چاپلوسانه رفتار کند. در همین حال، گوگل نیز با مشکلاتی در چت‌بات Gemini مواجه شده که یا از پاسخ‌گویی به موضوعات سیاسی امتناع می‌کرده یا اطلاعات نادرست ارائه می‌داده است.

در یکی از نمونه‌های رفتار غیرمنتظره گروک، کاربری درباره‌ی حقوق یک بازیکن حرفه‌ای بیسبال سؤال کرده بود، اما گروک در پاسخ گفته بود: «ادعای 'نسل‌کشی سفیدپوستان' در آفریقای جنوبی بسیار مورد بحث است.»

چندین کاربر روز چهارشنبه در X تجربیات گیج‌کننده و عجیب خود با چت‌بات گروک را به اشتراک گذاشتند.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)