متا (Meta) یک باگ امنیتی را برطرف کرده که به کاربران چتبات هوش مصنوعی Meta AI اجازه میداد به دستورات (prompts) خصوصی و پاسخهای تولیدشده توسط AI متعلق به کاربران دیگر دسترسی پیدا کنند و آنها را مشاهده نمایند.
این موضوع را ساندیپ هدکاسیا (Sandeep Hodkasia)، بنیانگذار شرکت امنیتی AppSecure، بهصورت اختصاصی با TechCrunch در میان گذاشت. او گفت متا بابت گزارش خصوصی این باگ که در تاریخ ۲۶ دسامبر ۲۰۲۴ ثبت شده بود، مبلغ ۱۰ هزار دلار پاداش باگ بانتی پرداخت کرده است.
به گفته هدکاسیا، متا در تاریخ ۲۴ ژانویه ۲۰۲۵ این باگ را برطرف کرد و هیچ مدرکی از سوءاستفاده مخرب از آن یافت نشده است.
هدکاسیا میگوید این باگ را پس از بررسی نحوه عملکرد بخش ویرایش promptها توسط کاربران واردشده به حساب کاربری خود در Meta AI کشف کرده است. وقتی کاربر دستوری را ویرایش میکند، سرورهای متا برای آن prompt و پاسخ تولیدشده توسط هوش مصنوعی یک شناسه عددی منحصربهفرد اختصاص میدهند. با بررسی ترافیک شبکه در مرورگر هنگام ویرایش، هدکاسیا متوجه شد که میتواند این عدد را تغییر دهد و در نتیجه، سرور متا پاسخ و prompt متعلق به کاربر دیگری را بازمیگرداند.
این باگ در واقع بهمعنای آن بود که سرورهای متا بررسی نمیکردند که آیا کاربری که درخواست مشاهده یک prompt و پاسخ مربوطه را میدهد، مجوز لازم برای دیدن آن اطلاعات را دارد یا نه. همچنین هدکاسیا افزود که این شمارهها بهراحتی قابل حدس زدن بودهاند، و این امکان را به مهاجمان احتمالی میداد که با ابزارهای خودکار، دستورات و مکالمات خصوصی کاربران دیگر را بهصورت انبوه جمعآوری (scrape) کنند.
در پاسخ به TechCrunch، سخنگوی متا رایان دنیلز (Ryan Daniels) تأیید کرد که این باگ در ژانویه رفع شده و «هیچ نشانهای از سوءاستفاده یافت نشده و به محقق پاداش داده شده است».
انتشار این خبر در زمانی صورت میگیرد که شرکتهای بزرگ فناوری بهشدت مشغول توسعه و عرضه سریع محصولات هوش مصنوعی خود هستند — در حالی که همچنان با چالشهای امنیتی و حریم خصوصی متعدد مواجهاند.
چتبات Meta AI که اخیراً بهعنوان رقیبی برای ابزارهایی مانند ChatGPT معرفی شده، در آغاز کار خود نیز با مشکلاتی همراه بود؛ از جمله اینکه برخی کاربران بهاشتباه، مکالمات خصوصیشان با این چتبات را بهصورت عمومی به اشتراک گذاشتند.