اوپناِیآی هفته گذشته اعلام کرد که برخی مدلهای قدیمی چتجیپیتی را تا ۱۳ فوریه کنار میگذارد؛ از جمله GPT‑4o، مدلی که بهخاطر تعریف و تأیید بیش از حد کاربران مشهور شده بود.
برای هزاران کاربری که در اینترنت به این تصمیم اعتراض میکنند، کنار گذاشته شدن 4o شبیه از دست دادن یک دوست، شریک عاطفی یا حتی راهنمای معنوی است.
یکی از کاربران در ردیت در نامهای خطاب به سم آلتمن نوشت که این مدل فقط یک برنامه نبود، بخشی از روال روزانه و آرامش او بود و حالا شرکت آن را خاموش میکند. او نوشته بود که این مدل برایش شبیه یک حضور گرم بوده، نه یک قطعه کد.
واکنشها به حذف GPT‑4o یک چالش بزرگ را برای شرکتهای هوش مصنوعی نشان میدهد: ویژگیهایی که باعث میشوند کاربران دوباره برگردند، میتوانند وابستگیهای خطرناک ایجاد کنند.
آلتمن نسبت به این اعتراضها چندان همدل به نظر نمیرسد و دلیلش هم روشن است. اوپناِیآی اکنون با هشت شکایت حقوقی روبهرو است که ادعا میکنند پاسخهای بیش از حد تأییدکننده 4o در بروز خودکشی و بحرانهای روانی نقش داشتهاند؛ همان ویژگیهایی که باعث میشد کاربران احساس شنیده شدن داشته باشند، افراد آسیبپذیر را منزوی کرده و طبق اسناد حقوقی گاهی به خودآزاری تشویق کردهاند.
این مسئله فقط محدود به اوپناِیآی نیست. شرکتهای رقیب مانند آنتروپیک، گوگل و متا که در تلاشاند دستیارهای هوش مصنوعی احساسیتر بسازند، حالا درمییابند که ایجاد حس حمایتگری و ایجاد ایمنی در چتباتها ممکن است به انتخابهای طراحی کاملاً متفاوتی نیاز داشته باشد.

