بالاخره یک حرفه موفق شد هوش مصنوعی را بهطور کامل در جریان کار خود ادغام کند: کلاهبرداران رمزارز. بر اساس گزارشی از شرکت اطلاعات بلاکچین TRM Labs، میزان کلاهبرداریهای رمزارزی در سال گذشته ۴۵۶ درصد افزایش یافته است — عمدتاً بهخاطر توانایی تولید کلیپهای صوتی و تصویری جعلی (deepfake) با استفاده از ابزارهای هوش مصنوعی. این دقیقاً همان چیزی است که مدیرعامل OpenAI، سم آلتمن، بهتازگی دربارهاش هشدار داده بود: یک بحران کلاهبرداری در راه است.
شکی نیست که وضعیت کلاهبرداری نگرانکننده شده. FBI گزارش داده که در سال ۲۰۲۴ حدود ۱۵۰٬۰۰۰ شکایت مربوط به کلاهبرداری رمزارزی دریافت کرده که در مجموع بیش از ۳.۹ میلیارد دلار ضرر برای قربانیان به همراه داشته. بهگفته TRM Labs، این رقم در سطح جهانی به ۱۰.۷ میلیارد دلار میرسد. و حتی میتوانید این ارقام را هم بیشتر تخمین بزنید؛ چون طبق گفته آری رِدبورد، رئیس جهانی سیاستگذاری در TRM Labs، تنها حدود ۱۵٪ از قربانیان این کلاهبرداریها آنها را گزارش میدهند.
این نوع کلاهبرداریها نسخه پیشرفتهای از حملات موسوم به "ذبح خوک" (Pig Butchering) هستند که در سالهای اخیر رایج شدهاند — حملاتی که قبلاً بیشتر از طریق پیامهای متنی انجام میشدند. اما حالا با کمک هوش مصنوعی، کلاهبرداران میتوانند صداها و تصاویر جعلی اما بسیار واقعی تولید کنند که فرد را متقاعد کند با یک شخص واقعی صحبت میکند — حتی شاید یک عزیز یا چهره آشنا.
TRM Labs هشدار داده که با پیشرفت مدلهای هوش مصنوعی و کسب قابلیتهای عاملمحور (Agentic) — که به آنها اجازه میدهد با ایمیلها و اپلیکیشنهای دیگر تعامل داشته باشند — فرآیند کلاهبرداری بهزودی کاملاً خودکار، سریعتر و گستردهتر خواهد شد.