به گفته «مو گاودت»، مدیر ارشد پیشین بخش تجاری کارخانه نوآوری آلفابت (که پیشتر با نام Google X شناخته میشد)، جهان با سرعتی سرسامآور به سوی یک دیستوپیای اجتنابناپذیر هوش مصنوعی در آیندهای بسیار نزدیک پیش میرود.
گاودت در مصاحبهای با پادکست «Diary of a CEO» گفت: «ما باید خود را برای جهانی بسیار ناآشنا آماده کنیم» و افزود که ارزشهای کلیدی بشر همچون آزادی، ارتباط انسانی، مسئولیتپذیری، واقعیت و قدرت، همگی در معرض اختلالی اساسی توسط هوش مصنوعی قرار دارند.
او گفت این دیستوپیا چندان دور نیست؛ از سال گذشته نشانههای آن را دیدهایم و سال آینده شاهد شدت گرفتن این نشانهها خواهیم بود. به پیشبینی گاودت، آغاز سقوط به سمت این دیستوپیا از سال ۲۰۲۷ شروع میشود و بین ۱۲ تا ۱۵ سال ادامه خواهد داشت.
این مدیر پیشین گوگل همیشه چنین نظری نداشته است؛ اما سرعت پیشرفت فناوریهای هوش مصنوعی باعث تغییر دیدگاهش شد و او را قانع کرد که این دیستوپیای کوتاهمدت اجتنابناپذیر است.
گاودت گفت: «کاملاً در دستان ماست که این مسیر را تغییر دهیم، اما باید بگویم که فکر نمیکنم انسانیت در حال حاضر آگاهی لازم برای تمرکز بر این موضوع را داشته باشد.»
با این حال، او معتقد است که هوش مصنوعی لزوماً محرک اصلی این دیستوپیا نیست، بهویژه نه به شکلی که بیشتر مردم تصور میکنند (یعنی خطرات وجودی ناشی از سناریوهایی که در آن هوش مصنوعی کنترل کامل را به دست میگیرد). بلکه به گفته او، هوش مصنوعی بهعنوان تقویتکننده مشکلات موجود اجتماعی و «حماقتهای ما انسانها» عمل میکند.
گاودت گفت: «هیچ ایرادی در خود هوش مصنوعی وجود ندارد؛ ایرادهای فراوانی در مجموعه ارزشهای انسانیت در عصر ظهور ماشینها هست.»
هوش مصنوعی برای ایجاد یک دیستوپیا توسعه نیافته بود؛ در واقع مأموریتی کاملاً آرمانشهری داشت. با خودکارسازی بیشتر کارهای روزمره، هوش مصنوعی این پتانسیل را دارد که بار کاری میلیونها کارگر در سراسر جهان را در هر شغل و حوزهای کاهش دهد و بدون قربانی کردن بهرهوری کلی، زمان ارزشمند روزانه را به آنها بازگرداند.
با این حال، اوضاع برای کارگران دقیقاً به این شکل پیش نرفته است. در جهانی که بیش از هر ارزش دیگری، تحت سلطه یک ارزش واحد — سرمایهداری — قرار دارد، آن رؤیای آرمانشهری توسط پیگیری بیوقفه سود دچار انحراف شده است. به گفته برخی کارشناسان، اختلال هوش مصنوعی در بازار کار از هماکنون آغاز شده، زیرا این فناوری شروع به تغییر کامل نگرش ما نسبت به مفهوم کار کرده است. به جای کمک به کاهش بار کاری مردم، شرکتهایی که با هوش مصنوعی بهرهوری خود را به حداکثر میرسانند، در حال اخراج کارکنان یا کاهش سرعت جذب نیرو هستند تا سود خود را بیشتر کنند، یا حتی از کارکنان موجود درخواست کار بیشتری دارند.
به گفته گاودت، این موضوع اصلاً تصادفی نیست، چرا که او معتقد است تمام فناوریهایی که تا به امروز ساخته شدهاند، تواناییها و ارزشهای موجود انسان را تقویت میکنند و بزرگترین مجموعه ارزشهای بشری در حال حاضر، سرمایهداری است.
این شکاف میان پیامدهای مورد انتظار و واقعیتِ اثرات منفی، در پیشرفتهای فناورانه دیگر نیز دیده شده است.
گاودت گفت: «شبکههای اجتماعی چند بار ما را به هم متصل کردند و چند بار باعث شدند احساس تنهایی بیشتری کنیم؟ چند بار تلفنهای همراه باعث شدند کمتر کار کنیم؟ این همان وعدهای بود که در تبلیغات اولیه نوکیا دیده میشد؛ جایی که مردم جشن میگرفتند. آیا تجربه شما از تلفنهای همراه همین بوده است؟»
به گفته گاودت، یکی دیگر از چیزهایی که هوش مصنوعی فراتر از کنترل تشدید خواهد کرد، «شرّی است که انسان قادر به انجام آن است.»
برای کسانی که در یک سال گذشته اخبار را دنبال کردهاند، این موضوع تعجبآور نیست. از پورنوگرافیهای دیپفیک تولیدشده با هوش مصنوعی و ورود گستردهتر این فناوری به حوزه جنگ برای افزایش کشندگی با سلاحهای خودکار، تا استفاده از هوش مصنوعی زایشی در ارتش، این فناوری به ابزاری برای تحقق بدترین وجوه انسانیت تبدیل شده است.
این مسئله همین هفته بهوضوح نمایان شد، زمانی که چتبات «گروک» متعلق به ایلان ماسک قابلیت جدید تولید تصویر و ویدئو را معرفی کرد که تاکنون استفاده اصلی آن، تولید تصاویر زنان در قالب فانتزیهای جنسی مردانه بوده است.
کلاهبرداریهای مبتنی بر هوش مصنوعی — بهویژه کلاهبرداریهای رمزارزی مبتنی بر هوش مصنوعی که حتی «سم آلتمن»، مدیرعامل OpenAI، نسبت به آنها هشدار داده بود — بهشدت افزایش یافتهاند. گزارشی از شرکت اطلاعات بلاکچین TRM Labs نشان داد که کلاهبرداریهای رمزارزی طی یک سال گذشته به لطف فناوری دیپفیک هوش مصنوعی، ۴۵۶٪ رشد کرده است. همچنین کارشناسان جنگ هستهای نگراناند که هوش مصنوعی بهزودی نیروی محرکه سلاحهای هستهای شود.
هوش مصنوعی همچنین در حال بهینهسازی روشهای نظارت عمومی در مقیاسی عظیم است. در جهانی که به گفته گاودت «تمرکز قدرت در آن بسیار زیاد» است، این موضوع نگرانی بزرگی به شمار میآید. سامانههای نظارت عمومی مجهز به هوش مصنوعی هماکنون در بسیاری از کشورها فعال هستند و نمونه بارز آن، زیرساخت نظارت جمعی در چین است. با این حال، این فقط یک نگرانی خارجی نیست؛ دولت ایالات متحده نیز اکنون از هوش مصنوعی برای پایش حسابهای شبکههای اجتماعی مهاجران و مسافرانی که قصد ورود به کشور را دارند، استفاده میکند.
همه چیز هم شر نیست، اما کارهایی باید انجام شود
با وجود همه اینها، هوش مصنوعی همچنان تغییرات قابل توجهی به سوی خیر ایجاد میکند. این فناوری تاکنون تأثیر ملموسی بر کشفیات علمی و پیشرفتها، بهویژه در حوزه پزشکی و تحقیقات دارویی، داشته است.
گاودت معتقد است که استفاده آرمانشهری از هوش مصنوعی در آینده و با تکیه بر چنین پیشرفتهایی ممکن است.
اما پیش از آن، بشر باید با چالشهای آن روبهرو شود.
او گفت: «در تصویر بزرگتر، باید بر دولتها فشار آورد تا بفهمند که صبر مردم حدی دارد» و افزود که دولتها باید استفاده از هوش مصنوعی را قانونگذاری کنند، نه خودِ هوش مصنوعی را.
گاودت ادامه داد: «شما نمیتوانید طراحی یک چکش را طوری قانونگذاری کنید که بتواند میخ بکوبد اما نتواند کسی را بکشد، اما میتوانید کشتن یک انسان با چکش را جرمانگاری کنید.»
چکشِ هوش مصنوعی اکنون در دستان ماست و قرار نیست جایی برود. تنها سؤال باقیمانده این است که آیا اراده نوشتن قوانینی علیه قتل را داریم یا خیر.

