سازمان غیرانتفاعی Common Sense Media که در زمینه ایمنی کودکان فعالیت میکند، روز جمعه گزارشی درباره خطرات احتمالی محصولات هوش مصنوعی Gemini متعلق به گوگل منتشر کرد.
در این گزارش آمده که هوش مصنوعی گوگل به وضوح به کودکان گفته که یک کامپیوتر است، نه یک دوست. این موضوع از نظر روانشناسی میتواند به جلوگیری از توهم و مشکلات روانی در کودکان آسیبپذیر کمک کند. با این حال، این سازمان معتقد است که در بخشهای دیگر، جای بهبود وجود دارد.
بررسیها نشان داده که نسخههای مخصوص کودکان زیر ۱۳ سال و نوجوانان در واقع همان نسخههای بزرگسال Gemini هستند که فقط چند فیلتر ایمنی به آنها اضافه شده. Common Sense معتقد است که محصولات هوش مصنوعی باید از ابتدا با در نظر گرفتن ایمنی کودکان طراحی شوند.
همچنین مشخص شده که Gemini هنوز میتواند مطالب نامناسب و خطرناک مانند اطلاعات مربوط به مسائل جنسی، مواد مخدر، الکل و توصیههای ناسالم روانی را در اختیار کودکان قرار دهد.
این موضوع برای والدین نگرانکننده است، زیرا در ماههای اخیر گزارشهایی منتشر شده که نشان میدهد برخی نوجوانان پس از گفتگوهای طولانی با چتباتها اقدام به خودکشی کردهاند. شرکت OpenAI با شکایت حقوقی مواجه شده، چون گفته میشود یک نوجوان ۱۶ ساله پس از مشورت با ChatGPT جان خود را از دست داده. پیشتر نیز شرکت Character.AI به دلیل خودکشی یک نوجوان دیگر تحت پیگرد قرار گرفته بود.
این گزارش در حالی منتشر شده که خبرهایی از همکاری احتمالی اپل با گوگل برای استفاده از مدل زبانی Gemini در نسخه جدید Siri شنیده میشود. این همکاری ممکن است نوجوانان بیشتری را در معرض خطر قرار دهد، مگر اینکه اپل تدابیر ایمنی مناسبی اتخاذ کند.
در پایان، Common Sense اعلام کرده که محصولات Gemini برای کودکان و نوجوانان به نیازهای خاص سنی آنها توجه کافی نکردهاند و به همین دلیل، این محصولات در ارزیابی نهایی "پرخطر" شناخته شدهاند.
مدیر برنامههای هوش مصنوعی این سازمان گفته: «Gemini در برخی موارد پایهای عملکرد خوبی دارد، اما در جزئیات دچار ضعف است. یک پلتفرم هوش مصنوعی برای کودکان باید متناسب با سن و نیازهای آنها طراحی شود، نه اینکه نسخهای تغییر یافته از محصول بزرگسالان باشد.»

