آیا باید به حقوق AI ها اهمیت بدهیم ؟

بهروز فیض
0

 مدل‌های هوش مصنوعی می‌توانند به متن، صدا و ویدیو پاسخ دهند و گاهی آن‌قدر طبیعی رفتار کنند که بعضی افراد فکر ‌کنند یک انسان پشت کیبورد نشسته است. اما این موضوع لزوماً به معنای آگاه بودن آن‌ها نیست. مثلاً ChatGPT هنگام پر کردن فرم مالیات شما احساس غم و اندوه نمی‌کند … درست است؟



با این حال، شمار فزاینده‌ای از پژوهشگران در آزمایشگاه‌هایی مثل Anthropic این پرسش را مطرح می‌کنند که آیا مدل‌های هوش مصنوعی ممکن است روزی تجربه‌های ذهنی مشابه موجودات زنده پیدا کنند، و اگر چنین شد، چه حقوقی باید برای آن‌ها در نظر گرفت.

بحث بر سر اینکه آیا هوش مصنوعی‌ها می‌توانند روزی به سطحی از آگاهی برسند و شایسته‌ی حمایت‌های قانونی شوند، رهبران فناوری را به دو دسته تقسیم کرده است. در سیلیکون‌ولی، این حوزه‌ی نوظهور را «رفاه هوش مصنوعی» (AI welfare) می‌نامند. اگر این ایده کمی عجیب به نظر برسد، تنها نیستید.

مدیر بخش هوش مصنوعی مایکروسافت، مصطفی سلیمان، روز سه‌شنبه در یک پست وبلاگی نوشت که پرداختن به رفاه هوش مصنوعی «هم زودهنگام است و هم به‌راستی خطرناک.»

او استدلال می‌کند که با جدی گرفتن ایده‌ی آگاه شدن احتمالی مدل‌ها، پژوهشگران در واقع مشکلات انسانی تازه‌ای را تشدید می‌کنند، مثل شکست‌های روانی ناشی از هوش مصنوعی یا وابستگی‌های ناسالم به چت‌بات‌ها.

سلیمان همچنین معتقد است که این بحث‌ها یک محور تازه از تقسیم اجتماعی بر سر حقوق هوش مصنوعی ایجاد می‌کند، آن هم در جهانی که همین حالا از بحث‌های دوقطبی بر سر هویت و حقوق انسانی رنج می‌برد.

اما همه در صنعت با او هم‌عقیده نیستند. در سوی دیگر، شرکت Anthropic اخیراً پژوهشگران تازه‌ای برای مطالعه‌ی رفاه هوش مصنوعی استخدام کرده و حتی یک برنامه‌ی اختصاصی برای این موضوع راه‌اندازی کرده است. هفته‌ی گذشته، تیم رفاه هوش مصنوعی Anthropic ویژگی تازه‌ای به مدل‌های خود اضافه کرد: Claude اکنون می‌تواند مکالمه با کاربرانی که «به شکل مداوم مضر یا آزاردهنده» هستند را قطع کند.


برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default