چینی ها داده های Anthropic را به کمک اکانت های جعلی استخراج می کنند

بهروز فیض
0

 آنتروپیک سه شرکت هوش مصنوعی چینی را متهم کرده است که بیش از ۲۴ هزار حساب جعلی برای استفاده از مدل Claude ایجاد کرده‌اند تا مدل‌های خود را بهبود دهند. این شرکت‌ها — دیپ‌سیک، مون‌شات AI و مینی‌مکس — طبق ادعای آنتروپیک بیش از ۱۶ میلیون تعامل با Claude از طریق این حساب‌ها تولید کرده‌اند و از روشی به نام «تقطیر» استفاده کرده‌اند. آنتروپیک می‌گوید این شرکت‌ها «قابلیت‌های متمایز Claude مانند استدلال عاملی، استفاده از ابزار و کدنویسی» را هدف قرار داده‌اند.



این اتهامات در حالی مطرح می‌شود که بحث‌ها درباره شدت اجرای محدودیت‌های صادراتی بر تراشه‌های پیشرفته هوش مصنوعی ادامه دارد؛ سیاستی که با هدف کند کردن توسعه هوش مصنوعی چین اعمال شده است.

تقطیر روشی رایج در آموزش مدل‌های هوش مصنوعی است که معمولاً برای ساخت نسخه‌های کوچک‌تر و ارزان‌تر از مدل‌های اصلی به کار می‌رود، اما رقبا می‌توانند از آن برای تقلید عملکرد مدل‌های دیگر استفاده کنند. اوایل ماه جاری، OpenAI در یادداشتی به نمایندگان مجلس آمریکا، دیپ‌سیک را متهم کرد که با همین روش محصولات این شرکت را تقلید کرده است.

دیپ‌سیک سال گذشته با انتشار مدل متن‌باز R1 که در استدلال تقریباً با مدل‌های پیشرفته آمریکایی برابری می‌کرد اما هزینه بسیار کمتری داشت، توجه زیادی را جلب کرد. انتظار می‌رود این شرکت به‌زودی مدل DeepSeek V4 را منتشر کند؛ مدلی که گفته می‌شود در زمینه کدنویسی از Claude آنتروپیک و چت‌جی‌پی‌تی OpenAI عملکرد بهتری دارد.

برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default