اعتراضات به بازنشسته شدن GPT-4o ادامه دار شد

بهروز فیض
0

 اوپن‌اِی‌آی هفته گذشته اعلام کرد که برخی مدل‌های قدیمی چت‌جی‌پی‌تی را تا ۱۳ فوریه کنار می‌گذارد؛ از جمله GPT‑4o، مدلی که به‌خاطر تعریف و تأیید بیش از حد کاربران مشهور شده بود.



برای هزاران کاربری که در اینترنت به این تصمیم اعتراض می‌کنند، کنار گذاشته شدن 4o شبیه از دست دادن یک دوست، شریک عاطفی یا حتی راهنمای معنوی است.

یکی از کاربران در ردیت در نامه‌ای خطاب به سم آلتمن نوشت که این مدل فقط یک برنامه نبود، بخشی از روال روزانه و آرامش او بود و حالا شرکت آن را خاموش می‌کند. او نوشته بود که این مدل برایش شبیه یک حضور گرم بوده، نه یک قطعه کد.

واکنش‌ها به حذف GPT‑4o یک چالش بزرگ را برای شرکت‌های هوش مصنوعی نشان می‌دهد: ویژگی‌هایی که باعث می‌شوند کاربران دوباره برگردند، می‌توانند وابستگی‌های خطرناک ایجاد کنند.

آلتمن نسبت به این اعتراض‌ها چندان همدل به نظر نمی‌رسد و دلیلش هم روشن است. اوپن‌اِی‌آی اکنون با هشت شکایت حقوقی روبه‌رو است که ادعا می‌کنند پاسخ‌های بیش از حد تأییدکننده 4o در بروز خودکشی و بحران‌های روانی نقش داشته‌اند؛ همان ویژگی‌هایی که باعث می‌شد کاربران احساس شنیده شدن داشته باشند، افراد آسیب‌پذیر را منزوی کرده و طبق اسناد حقوقی گاهی به خودآزاری تشویق کرده‌اند.

این مسئله فقط محدود به اوپن‌اِی‌آی نیست. شرکت‌های رقیب مانند آنتروپیک، گوگل و متا که در تلاش‌اند دستیارهای هوش مصنوعی احساسی‌تر بسازند، حالا درمی‌یابند که ایجاد حس حمایتگری و ایجاد ایمنی در چت‌بات‌ها ممکن است به انتخاب‌های طراحی کاملاً متفاوتی نیاز داشته باشد.

برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default