کاربران ردیت در سراسر جهان هفته گذشته شوکه شدند، پس از آنکه مشخص شد تیمی از پژوهشگران، دستهای از رباتهای هوش مصنوعی با توانایی تقلید از انسان را در سابردیت "Change My View" رها کردهاند. این آزمایش در مقیاس وسیع با هدف بررسی میزان اقناعکنندگی هوش مصنوعی طراحی شده بود.
این رباتها بیش از ۱۷۰۰ نظر منتشر کردند و شخصیتهایی مانند بازماندگان خشونت یا هویتهای بحثبرانگیز مانند مخالفان جنبش «جان سیاهپوستان مهم است» را به خود گرفتند.
برای ردیت، این ماجرا یک کابوس کوچک بود. برند ردیت با اصالت و واقعگرایی گره خورده است — جایی که افراد واقعی نظرات واقعی خود را به اشتراک میگذارند. اگر این فضای انسانی با محتوای ساختگی هوش مصنوعی آلوده شود یا کاربران دیگر نتوانند به واقعی بودن طرف مقابل اطمینان کنند، این فقط به هویت اصلی ردیت آسیب نمیزند؛ بلکه ممکن است به سودآوری آن نیز لطمه بزند — بهویژه اکنون که این شرکت محتوای خود را به شرکتهایی مانند OpenAI برای آموزش مدلها میفروشد.
ردیت این آزمایش را «نامناسب و بهشدت غیراخلاقی» خواند و شکایتی را علیه دانشگاهی که آن را انجام داده ثبت کرد. اما این آزمایش احتمالاً تنها نمونه از موج گستردهای از حضور رباتهای تولید محتوای هوش مصنوعی در نقش انسان در ردیت خواهد بود — دلایلی از علمی گرفته تا تبلیغاتی و سیاسی.
برای محافظت از کاربران در برابر فریب رباتها و حفظ «انسانی بودن ردیت»، این شرکت بهصورت بیسر و صدا اقدامی را در پیش گرفته — اقدامی که ممکن است برای برخی کاربران که به خاطر ناشناس بودن به ردیت آمدهاند، خوشایند نباشد.
روز دوشنبه، استیو هافمن، مدیرعامل ردیت، در پستی اعلام کرد که ردیت آغاز به همکاری با «خدمات تأیید هویت ثالث» خواهد کرد تا انسان بودن کاربران را تأیید کند. این تصمیم گامی مهم برای پلتفرمی است که تا پیش از این تقریباً هیچ اطلاعات شخصی برای ساخت حساب کاربری نمیخواست.
هافمن نوشت: «برای آنکه ردیت را انسانی نگه داریم و با مقررات در حال تغییر هماهنگ شویم، به اطلاعات بیشتری نیاز خواهیم داشت. مشخصاً، باید بدانیم که شما انسان هستید، و در برخی مکانها، باید بدانیم که شما بزرگسال هستید. اما هرگز نمیخواهیم نام یا هویت واقعی شما را بدانیم.»