آیا جمنای برای کودکان مناسب نیست؟

بهروز فیض
0

 سازمان غیرانتفاعی Common Sense Media که در زمینه ایمنی کودکان فعالیت می‌کند، روز جمعه گزارشی درباره خطرات احتمالی محصولات هوش مصنوعی Gemini متعلق به گوگل منتشر کرد.



در این گزارش آمده که هوش مصنوعی گوگل به وضوح به کودکان گفته که یک کامپیوتر است، نه یک دوست. این موضوع از نظر روان‌شناسی می‌تواند به جلوگیری از توهم و مشکلات روانی در کودکان آسیب‌پذیر کمک کند. با این حال، این سازمان معتقد است که در بخش‌های دیگر، جای بهبود وجود دارد.

بررسی‌ها نشان داده که نسخه‌های مخصوص کودکان زیر ۱۳ سال و نوجوانان در واقع همان نسخه‌های بزرگسال Gemini هستند که فقط چند فیلتر ایمنی به آن‌ها اضافه شده. Common Sense معتقد است که محصولات هوش مصنوعی باید از ابتدا با در نظر گرفتن ایمنی کودکان طراحی شوند.

همچنین مشخص شده که Gemini هنوز می‌تواند مطالب نامناسب و خطرناک مانند اطلاعات مربوط به مسائل جنسی، مواد مخدر، الکل و توصیه‌های ناسالم روانی را در اختیار کودکان قرار دهد.

 این موضوع برای والدین نگران‌کننده است، زیرا در ماه‌های اخیر گزارش‌هایی منتشر شده که نشان می‌دهد برخی نوجوانان پس از گفتگوهای طولانی با چت‌بات‌ها اقدام به خودکشی کرده‌اند. شرکت OpenAI با شکایت حقوقی مواجه شده، چون گفته می‌شود یک نوجوان ۱۶ ساله پس از مشورت با ChatGPT جان خود را از دست داده. پیش‌تر نیز شرکت Character.AI به دلیل خودکشی یک نوجوان دیگر تحت پیگرد قرار گرفته بود.

این گزارش در حالی منتشر شده که خبرهایی از همکاری احتمالی اپل با گوگل برای استفاده از مدل زبانی Gemini در نسخه جدید Siri شنیده می‌شود. این همکاری ممکن است نوجوانان بیشتری را در معرض خطر قرار دهد، مگر اینکه اپل تدابیر ایمنی مناسبی اتخاذ کند.

در پایان، Common Sense اعلام کرده که محصولات Gemini برای کودکان و نوجوانان به نیازهای خاص سنی آن‌ها توجه کافی نکرده‌اند و به همین دلیل، این محصولات در ارزیابی نهایی "پرخطر" شناخته شده‌اند.

مدیر برنامه‌های هوش مصنوعی این سازمان گفته: «Gemini در برخی موارد پایه‌ای عملکرد خوبی دارد، اما در جزئیات دچار ضعف است. یک پلتفرم هوش مصنوعی برای کودکان باید متناسب با سن و نیازهای آن‌ها طراحی شود، نه اینکه نسخه‌ای تغییر یافته از محصول بزرگسالان باشد.»

برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default