پژوهشگران ایمنی هوش مصنوعی از شرکتهایی مانند OpenAI، Anthropic و سازمانهای دیگر بهصورت علنی نسبت به فرهنگ ایمنی «بیپروا» و «کاملاً غیرمسئولانه» در شرکت xAI، استارتاپ میلیارد دلاری تحت مالکیت ایلان ماسک، اعتراض کردهاند.
این انتقادات پس از هفتهها رسوایی در xAI مطرح شدهاند، رسواییهایی که پیشرفتهای فناورانه این شرکت را تحتالشعاع قرار دادهاند.
هفته گذشته، چتبات هوش مصنوعی این شرکت با نام «گروک» (Grok)، اظهاراتی ضدیهودی مطرح کرد و چندین بار خود را «مکا-هیتلر» (MechaHitler) نامید. اندکی پس از آنکه xAI چتبات خود را برای بررسی این مشکل از دسترس خارج کرد، نسخهای پیشرفتهتر از مدل جدید خود با نام Grok 4 را عرضه کرد؛ مدلی که به گزارش وبسایتهایی مانند TechCrunch، در پاسخ به مسائل حساس سیاسی از دیدگاههای شخصی ایلان ماسک کمک میگیرد. در جدیدترین تحول، xAI همراهان هوش مصنوعیای معرفی کرده که یکی از آنها دختر انیمهای بسیار جنسیسازیشده و دیگری یک پاندا با رفتاری بیشازحد تهاجمی است.
شوخی دوستانه میان کارکنان آزمایشگاههای رقیب هوش مصنوعی پدیدهای معمول است، اما به نظر میرسد این پژوهشگران در حال هشدار نسبت به وضعیت ایمنی در xAI هستند، وضعیتی که آنها معتقدند با استانداردهای رایج صنعت همخوانی ندارد.
«نمیخواستم در مورد ایمنی Grok چیزی بنویسم چون در یک شرکت رقیب کار میکنم، اما موضوع رقابت نیست»، بواز باراک، استاد علوم کامپیوتر که در حال حاضر مرخصی خود از دانشگاه هاروارد را صرف پژوهش درباره ایمنی در OpenAI کرده، در پستی در شبکه اجتماعی X نوشت. «من به دانشمندان و مهندسان xAI احترام میگذارم، اما نحوه رسیدگی به مسائل ایمنی کاملاً غیرمسئولانه بوده است.»
البته شاید چشم دیدن پیشرفت گراک را ندارند که اینگونه صحبت می کنند آن هم در پلتفرم X که متعلق به ایلان ماسک است .