وزارت دفاع آمریکا بهطور رسمی به مدیران شرکت Anthropic اطلاع داده که این شرکت و محصولاتش بهعنوان یک «ریسک زنجیره تأمین» طبقهبندی شدهاند. این خبر را بلومبرگ به نقل از یک مقام ارشد وزارت دفاع منتشر کرده است.
این تصمیم پس از چند هفته تنش میان این آزمایشگاه هوش مصنوعی و پنتاگون گرفته شده است. داریو آمودی، مدیرعامل Anthropic، اجازه استفاده ارتش از سیستمهای هوش مصنوعی این شرکت را برای نظارت گسترده بر شهروندان آمریکایی یا بهکارگیری در سلاحهای کاملاً خودکار بدون دخالت انسان رد کرده است. وزارت دفاع اما معتقد است که استفادهاش از هوش مصنوعی نباید توسط یک پیمانکار خصوصی محدود شود.
چنین برچسبی معمولاً برای دشمنان خارجی استفاده میشود. این طبقهبندی باعث میشود هر شرکت یا نهادی که با پنتاگون همکاری میکند مجبور باشد تأیید کند که از مدلهای Anthropic استفاده نمیکند.
این تصمیم میتواند هم فعالیتهای Anthropic و هم عملیات خود پنتاگون را مختل کند. Anthropic تنها آزمایشگاه پیشروی هوش مصنوعی بوده که سیستمهای آماده برای کار با اطلاعات طبقهبندیشده ارائه میکرد. ارتش آمریکا در حال حاضر در عملیات مربوط به ایران از Claude استفاده میکند؛ جایی که نیروهای آمریکایی برای مدیریت سریع دادهها به ابزارهای هوش مصنوعی متکی هستند. طبق گزارش بلومبرگ، Claude یکی از ابزارهای اصلی نصبشده در سیستم Maven شرکت Palantir است که نیروهای نظامی در خاورمیانه از آن استفاده میکنند.

