خانواده مدلهای «باز» هوش مصنوعی گوگل با معرفی اعضای جدید در حال گسترش است.
در جریان رویداد Google I/O 2025، گوگل از مدل جدیدی به نام Gemma 3n رونمایی کرد؛ مدلی که بهگونهای طراحی شده تا بهصورت روان روی تلفنهای هوشمند، لپتاپها و تبلتها اجرا شود. این مدل از روز سهشنبه بهصورت پیشنمایش در دسترس قرار گرفته و به گفته گوگل، قابلیت پردازش صدا، متن، تصویر و ویدیو را دارد.
مدلهایی که کارآمد و سبک هستند و بدون نیاز به پردازش ابری میتوانند آفلاین اجرا شوند، در سالهای اخیر در جامعه هوش مصنوعی محبوبیت زیادی پیدا کردهاند. این مدلها نهتنها از نظر هزینه مقرونبهصرفهتر هستند، بلکه با حفظ حریم خصوصی دادهها (چون نیازی به ارسال اطلاعات به سرورهای دوردست ندارند) مزیت بزرگی محسوب میشوند.
در یکی از سخنرانیهای اصلی Google I/O، گاس مارتینز، مدیر محصول Gemma، گفت که مدل Gemma 3n حتی روی دستگاههایی با کمتر از ۲ گیگابایت رم نیز اجرا میشود. او افزود:
«Gemma 3n از همان معماری Gemini Nano استفاده میکند و برای عملکردی شگفتانگیز طراحی شده است.»
علاوه بر Gemma 3n، گوگل همچنین مدل MedGemma را از طریق برنامه Health AI Developer Foundations منتشر کرده است. به گفته شرکت، MedGemma پیشرفتهترین مدل باز گوگل برای تحلیل متن و تصاویر مرتبط با سلامت است.
مارتینز در این خصوص گفت:
«MedGemma مجموعهای از مدلهای باز ما برای درک چندرسانهای (متن و تصویر) در حوزه سلامت است. این مدل عملکرد عالی در کاربردهای مختلف دارد، تا توسعهدهندگان بتوانند آن را با اپهای سلامت خود تطبیق دهند.»
همچنین، گوگل اعلام کرد که مدل دیگری به نام SignGemma در راه است؛ یک مدل باز برای ترجمه زبان اشاره به متن گفتاری. به گفته گوگل، SignGemma به توسعهدهندگان این امکان را میدهد تا اپلیکیشنها و ابزارهای جدیدی برای کاربران ناشنوا و کمشنوا بسازند.