همهی غولهای همیشگی دنیای تکنولوژی درگیر یک رقابت تسلیحاتی (نهچندان پنهان) هستند تا نخستین شرکتی باشند که عینکهای واقعیت افزودهای را عرضه میکند که قابلیت استفادهی عمومی و گسترده داشته باشند. ما از قبل میدانستیم گوگل با سامسونگ همکاری کرده تا عینکی مبتنی بر اندروید بسازد، اما این شرکت اخیراً در کنفرانس TED2025 دستگاه دیگری را به گروه کوچکی از حضار نشان داد—و همین حالا هم مشخص است که این دستگاه از نوع XR یا «واقعیت گسترشیافته» است؛ مفهومی که شاید بالاخره ما را از سلطهی هدستهای سنگین واقعیت مجازی نجات دهد.
شهرام ایزدی، معاون ارشد و مدیرکل بخش XR در گوگل، روی صحنهی TED ظاهر شد در حالی که عینکی به چشم داشت که در نگاه اول مانند یک عینک معمولی (اما بزرگتر از حد نرمال) به نظر میرسید—مشابه عینکهای هوشمند و بزرگ اوریون (Orion) از متا که هنوز عرضه نشدهاند. اما این در واقع عینک XR گوگل بود، و ایزدی ادعا کرد که یادداشتهای سخنرانیاش در همان لحظه از طریق عینک به او نمایش داده میشدند.
این عینک دارای میکروفون، دوربین و بلندگو است تا بتواند تا حد امکان اطلاعات گردآوری کند. اولین دستگاه XR گوگل از زمان عرضهی Google Glass دارای نمایشگری در داخل لنز است که ایزدی تنها برای چند ثانیه جلوی دوربین گرفت و گفت: «خیلی خیلی کوچکه». این ممکن است نشانهای باشد که گوگل دارد با فناوری نمایش Waveguide (که در محصولاتی مانند جدیدترین عینکهای RayNeo نیز دیده میشود) آزمایش میکند. خود عینک هم از سیستمعامل Android XR استفاده میکند، که نسخهای بومی و اختصاصی از اندروید برای دستگاههای واقعیت گسترشیافته است.
مدیر محصول گوگل، نیشتا باتیا، به حضار نشان داد که دوربینهای عینک چه چیزی را میتوانند نمایش دهند. او با ضربهای روی یکی از دستههای عینک، لوگوی ستارهی آبیرنگ «جمینی» را در پایین نمایشگر فعال کرد، و پس از نیمثانیه، چتبات با صدای هوش مصنوعی ظاهر شد—آماده تا یک هایکوی نهچندان جالب دربارهی حضار سروده و بگوید: «چهرهها درخشان، همه از شور و شوق». جمینی میتواند متنی را که میبیند به زبانهای مختلف ترجمه کند، هرچند ایزدی اشاره کرد که این قابلیت ممکن است نتیجههایی با کیفیت متغیر داشته باشد. همین دوربین همچنین قادر است متن و نمودارها را تحلیل کرده و به شکل نکات کلیدی صوتی قابل فهمتری ارائه کند.
ایزدی و باتیا همچنین از قابلیت «حافظه» رونمایی کردند که به هوش مصنوعی امکان میدهد چیزهایی را که اخیراً از طریق دوربین دیده، به یاد بیاورد—قابلیتی مشابه آنچه گوگل دیپمایند سال گذشته در پروژه Astra نشان داده بود. گوگل به تدریج ویژگیهای Astra، از جمله تشخیص عکس و ویدیو، را به رابط چت زنده جمینی اضافه کرده و به نظر میرسد قصد دارد قابلیتهای مشابهی را در نسل بعدی عینکهای واقعیت افزوده نیز پیادهسازی کند.
این عینکها باید توانایی بیشتری برای اتصال به گوشی هوشمند و «دسترسی به تمام اپهای گوشی شما» داشته باشند. اما ویژگی واقعاً چشمگیر، اتصال مستقیم آنها به سایر اپلیکیشنهای گوگل است. باتیا از عینک خواست تا نگاهی به یک صفحه موسیقی از رپر تدی سویمز بیندازد و آهنگی پخش کند. عینک بهصورت خودکار یوتیوب موزیک را باز کرد و آهنگ مورد نظر را پخش کرد. ما قبلاً هم از عینکهای ریبن متا بهخاطر اسپیکرهای باکیفیتشان بدون نیاز به ایرباد لذت بردهایم، پس این تصمیم گوگل کاملاً منطقی است.
اما چیزی که حتی عجیبتر و هیجانانگیزتر بود، این بود که نمایشگر داخل عینک میتوانست با گوگل مپس کار کند و تصویری نیمههولوگرافیک از نمای خیابانهای Google Street View برای ناوبری ارائه دهد.
گوگل سالهاست که بهطور پنهانی روی عینکهای واقعیت افزوده کار میکند، حتی پس از کنار رفتن پروژهی Google Glass. نکتهی جالب اینکه، عینکی که در TED2025 به نمایش درآمد، ممکن است اصلاً با برند خود گوگل عرضه نشود. این غول جستوجو با سامسونگ در پروژهای مشترک به نام Project Moohan همکاری میکند تا این عینک هوشمند را با پشتیبانی از سیستمعامل Android XR توسعه دهد. گوگل در همان رویداد TED2025 نمونهای از هدست اولیهی سامسونگ را نیز معرفی کرد. بر اساس آنچه از موهان دیدهایم، این دستگاه احتمالاً در ردهی قیمتی بالا قرار خواهد گرفت و عملکردی شبیه به Apple Vision Pro دارد—با این تفاوت که ویژگیهای بیشتری مبتنی بر جمینی خواهد داشت.
سامسونگ همچنین بهشدت اشاره کرده که روی یک عینک هوشمند جداگانه نیز کار میکند، اما احتمال میدهیم چیزی که گوگل این هفته به نمایش گذاشت، همان محصولی نباشد که طبق شایعات قرار است اواخر امسال عرضه شود. طبق گزارشی از رسانهی کرهای ETNews (ترجمهشده با ابزارهای ماشینی)، گفته میشود این دستگاه جدید حتی ممکن است نمایشگر یا دکمه نداشته باشد و در عوض فقط با استفاده از میکروفون برای فرمانهای صوتی و دوربین برای کنترلهای حرکتی کار کند.