گراک صدای رقبای خودش را درآورده است

بهروز فیض
توسط:
0

 پژوهشگران ایمنی هوش مصنوعی از شرکت‌هایی مانند OpenAI، Anthropic و سازمان‌های دیگر به‌صورت علنی نسبت به فرهنگ ایمنی «بی‌پروا» و «کاملاً غیرمسئولانه» در شرکت xAI، استارتاپ میلیارد دلاری تحت مالکیت ایلان ماسک، اعتراض کرده‌اند.



این انتقادات پس از هفته‌ها رسوایی در xAI مطرح شده‌اند، رسوایی‌هایی که پیشرفت‌های فناورانه این شرکت را تحت‌الشعاع قرار داده‌اند.

هفته گذشته، چت‌بات هوش مصنوعی این شرکت با نام «گروک» (Grok)، اظهاراتی ضدیهودی مطرح کرد و چندین بار خود را «مکا-هیتلر» (MechaHitler) نامید. اندکی پس از آنکه xAI چت‌بات خود را برای بررسی این مشکل از دسترس خارج کرد، نسخه‌ای پیشرفته‌تر از مدل جدید خود با نام Grok 4 را عرضه کرد؛ مدلی که به گزارش وب‌سایت‌هایی مانند TechCrunch، در پاسخ به مسائل حساس سیاسی از دیدگاه‌های شخصی ایلان ماسک کمک می‌گیرد. در جدیدترین تحول، xAI همراهان هوش مصنوعی‌ای معرفی کرده که یکی از آن‌ها دختر انیمه‌ای بسیار جنسی‌سازی‌شده و دیگری یک پاندا با رفتاری بیش‌ازحد تهاجمی است.

شوخی دوستانه میان کارکنان آزمایشگاه‌های رقیب هوش مصنوعی پدیده‌ای معمول است، اما به نظر می‌رسد این پژوهشگران در حال هشدار نسبت به وضعیت ایمنی در xAI هستند، وضعیتی که آن‌ها معتقدند با استانداردهای رایج صنعت همخوانی ندارد.

«نمی‌خواستم در مورد ایمنی Grok چیزی بنویسم چون در یک شرکت رقیب کار می‌کنم، اما موضوع رقابت نیست»، بواز باراک، استاد علوم کامپیوتر که در حال حاضر مرخصی خود از دانشگاه هاروارد را صرف پژوهش درباره ایمنی در OpenAI کرده، در پستی در شبکه اجتماعی X نوشت. «من به دانشمندان و مهندسان xAI احترام می‌گذارم، اما نحوه رسیدگی به مسائل ایمنی کاملاً غیرمسئولانه بوده است.»

البته شاید چشم دیدن پیشرفت گراک را ندارند که اینگونه صحبت می کنند آن هم در پلتفرم X که متعلق به ایلان ماسک است .

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)