مدلهای هوش مصنوعی میتوانند به متن، صدا و ویدیو پاسخ دهند و گاهی آنقدر طبیعی رفتار کنند که بعضی افراد فکر کنند یک انسان پشت کیبورد نشسته است. اما این موضوع لزوماً به معنای آگاه بودن آنها نیست. مثلاً ChatGPT هنگام پر کردن فرم مالیات شما احساس غم و اندوه نمیکند … درست است؟
با این حال، شمار فزایندهای از پژوهشگران در آزمایشگاههایی مثل Anthropic این پرسش را مطرح میکنند که آیا مدلهای هوش مصنوعی ممکن است روزی تجربههای ذهنی مشابه موجودات زنده پیدا کنند، و اگر چنین شد، چه حقوقی باید برای آنها در نظر گرفت.
بحث بر سر اینکه آیا هوش مصنوعیها میتوانند روزی به سطحی از آگاهی برسند و شایستهی حمایتهای قانونی شوند، رهبران فناوری را به دو دسته تقسیم کرده است. در سیلیکونولی، این حوزهی نوظهور را «رفاه هوش مصنوعی» (AI welfare) مینامند. اگر این ایده کمی عجیب به نظر برسد، تنها نیستید.
مدیر بخش هوش مصنوعی مایکروسافت، مصطفی سلیمان، روز سهشنبه در یک پست وبلاگی نوشت که پرداختن به رفاه هوش مصنوعی «هم زودهنگام است و هم بهراستی خطرناک.»
او استدلال میکند که با جدی گرفتن ایدهی آگاه شدن احتمالی مدلها، پژوهشگران در واقع مشکلات انسانی تازهای را تشدید میکنند، مثل شکستهای روانی ناشی از هوش مصنوعی یا وابستگیهای ناسالم به چتباتها.
سلیمان همچنین معتقد است که این بحثها یک محور تازه از تقسیم اجتماعی بر سر حقوق هوش مصنوعی ایجاد میکند، آن هم در جهانی که همین حالا از بحثهای دوقطبی بر سر هویت و حقوق انسانی رنج میبرد.
اما همه در صنعت با او همعقیده نیستند. در سوی دیگر، شرکت Anthropic اخیراً پژوهشگران تازهای برای مطالعهی رفاه هوش مصنوعی استخدام کرده و حتی یک برنامهی اختصاصی برای این موضوع راهاندازی کرده است. هفتهی گذشته، تیم رفاه هوش مصنوعی Anthropic ویژگی تازهای به مدلهای خود اضافه کرد: Claude اکنون میتواند مکالمه با کاربرانی که «به شکل مداوم مضر یا آزاردهنده» هستند را قطع کند.

