مایکروسافت تأیید کرده است که یک باگ باعث شده «کوپایلوت» بدون اجازه، برای چندین هفته ایمیلهای محرمانه مشتریان را خلاصهسازی کند.
این باگ که نخستینبار توسط وبسایت Bleeping Computer گزارش شد، به Copilot Chat اجازه میداد از ژانویه محتوای ایمیلها را بخواند و خلاصه کند؛ حتی در مواردی که مشتریان سیاستهای جلوگیری از نشت داده فعال کرده بودند تا اطلاعات حساسشان وارد مدل زبانی مایکروسافت نشود.
Copilot Chat به کاربران پولی Microsoft 365 امکان میدهد از قابلیت چت مبتنی بر هوش مصنوعی در نرمافزارهای آفیس مانند ورد، اکسل و پاورپوینت استفاده کنند.
مایکروسافت اعلام کرد این باگ که مدیران سیستم میتوانند آن را با کد CW1226324 پیگیری کنند، باعث شده پیشنویسها و ایمیلهای ارسالشده که برچسب «محرمانه» دارند، بهاشتباه توسط Copilot پردازش شوند.
این شرکت فناوری گفت از اوایل فوریه انتشار اصلاحیه این باگ را آغاز کرده است. سخنگوی مایکروسافت به درخواست برای توضیح بیشتر، از جمله اینکه چه تعداد مشتری تحت تأثیر قرار گرفتهاند، پاسخ نداد.
اوایل همین هفته، بخش فناوری اطلاعات پارلمان اروپا به نمایندگان اعلام کرد که قابلیتهای هوش مصنوعی داخلی روی دستگاههای کاری آنها را مسدود کرده است؛ زیرا نگران بود این ابزارها ممکن است مکاتبات محرمانه را به فضای ابری ارسال کنند.

