هفته گذشته، یک نهاد تجاری ژاپنی که نماینده ناشرانی مانند استودیو جیبلی است، نامهای به شرکت OpenAI ارسال کرد و خواستار توقف استفاده از محتوای دارای حقتکثیر اعضای خود برای آموزش مدلهای هوش مصنوعی بدون کسب اجازه شد.
استودیو جیبلی، سازنده فیلمهایی مانند «شهر اشباح» و «همسایه من توتورو»، بهویژه تحت تأثیر محصولات تولیدی OpenAI قرار گرفته است. پس از عرضه ابزار تصویرساز داخلی ChatGPT در ماه مارس، کاربران بهطور گستردهای تصاویر سلفی یا عکس حیوانات خانگی خود را با سبک هنری فیلمهای این استودیو بازسازی کردند. حتی مدیرعامل OpenAI، سم آلتمن، تصویر پروفایل خود در شبکه اجتماعی X را به تصویری با سبک جیبلی تغییر داد.
اکنون با گسترش دسترسی کاربران به اپلیکیشن Sora و ابزار تولید ویدیو، انجمن توزیع محتوای خارج از کشور ژاپن (CODA) از OpenAI خواسته است که بدون اجازه از محتوای اعضای این نهاد برای یادگیری ماشینی استفاده نکند.
این درخواست بدون زمینه قبلی مطرح نشده است. رویکرد OpenAI در مواجهه با محتوای دارای حقتکثیر، بیشتر مبتنی بر «طلب بخشش» است تا «کسب اجازه»، که باعث شده کاربران بهراحتی تصاویر و ویدیوهایی از شخصیتهای دارای حقتکثیر یا افراد مشهور درگذشته تولید کنند. این رویکرد موجب شکایتهایی از سوی نهادهایی مانند نینتندو و همچنین بنیاد دکتر مارتین لوتر کینگ جونیور شده است، چرا که امکان ساخت نسخههای جعلی از چهره این افراد در اپلیکیشن Sora وجود دارد.
تصمیمگیری درباره همکاری با این درخواستها بر عهده OpenAI است؛ در غیر این صورت، طرفهای آسیبدیده میتوانند اقدام قضایی انجام دهند، هرچند قوانین ایالات متحده درباره استفاده از محتوای دارای حقتکثیر برای آموزش هوش مصنوعی هنوز شفاف نیست.
تا کنون سابقه حقوقی کمی برای راهنمایی قضات در تفسیر این قوانین وجود دارد، چرا که قانون حقتکثیر آمریکا از سال ۱۹۷۶ بهروزرسانی نشده است. با این حال، در حکمی اخیر، قاضی فدرال ویلیام آلساپ اعلام کرد که شرکت Anthropic با آموزش مدلهای خود بر اساس کتابهای دارای حقتکثیر، قانون را نقض نکرده است — هرچند این شرکت به دلیل تهیه غیرقانونی آن کتابها جریمه شد.
در مقابل، CODA ژاپن معتقد است که این نوع استفاده ممکن است طبق قوانین ژاپن نقض حقتکثیر محسوب شود.

