انویدیا پلتفرم روبین را معرفی کرد - CES 2026

بهروز فیض
0

 رشد شدید تقاضا برای هوش مصنوعی و کمبود عرضه حافظه به موضوع اصلی صنعت تبدیل شده است و در نمایشگاه CES 2026 لاس‌وگاس نیز محور معرفی‌های تازه انویدیا بود.



این شرکت روز دوشنبه پلتفرم «Rubin» را رونمایی کرد؛ مجموعه‌ای از شش تراشه که در کنار هم یک ابررایانه هوش مصنوعی تشکیل می‌دهند. مسئولان انویدیا می‌گویند این پلتفرم نسبت به مدل‌های Blackwell کارآمدتر است و توان پردازشی و پهنای باند حافظه بیشتری ارائه می‌دهد. مدیرعامل انویدیا جنسن هوانگ اعلام کرد Rubin در زمانی عرضه می‌شود که تقاضا برای آموزش و اجرای مدل‌های هوش مصنوعی به اوج رسیده است.

محصولات مبتنی بر Rubin از نیمه دوم سال 2026 توسط شرکای انویدیا عرضه خواهند شد. شرکت‌هایی مانند AWS، Anthropic، گوگل، متا، مایکروسافت، OpenAI، اوراکل و xAI از جمله مشتریان این پلتفرم خواهند بود. مدیرعامل Anthropic داریو آمودی نیز گفت پیشرفت‌های کارایی در Rubin زیرساختی فراهم می‌کند که حافظه طولانی‌تر، استدلال بهتر و خروجی‌های قابل اعتمادتر را ممکن می‌سازد.

در همین حال، کمبود تراشه‌های حافظه باعث شده GPUها به کالایی کمیاب و گران تبدیل شوند. گزارش Tom’s Hardware نشان می‌دهد پروژه‌های عظیم مراکز داده حدود 40 درصد از تولید جهانی تراشه‌های DRAM را مصرف کرده‌اند. این کمبود به افزایش قیمت در محصولات الکترونیکی مصرفی منجر شده و احتمالاً بازار GPU را نیز تحت تأثیر قرار می‌دهد. خبرگزاری کره‌ای Newsis گزارش داده است که شرکت AMD قصد دارد قیمت برخی کارت‌های گرافیک خود را در همین ماه افزایش دهد و گفته می‌شود انویدیا نیز در فوریه همین مسیر را دنبال خواهد کرد.


انویدیا تمرکز خود را بر عبور از گلوگاه تراشه‌ها گذاشته است. این شرکت ماه گذشته بزرگ‌ترین خرید تاریخ خود را با تصاحب شرکت Groq، سازنده تراشه‌های ویژه پردازش استنتاج، انجام داد.

اکنون با محصولی که وعده سطح بالای استنتاج و امکان آموزش مدل‌های پیچیده با تعداد تراشه کمتر و هزینه پایین‌تر را می‌دهد، انویدیا امیدوار است بخشی از نگرانی‌های ناشی از کمبود تراشه در صنعت را کاهش دهد. مدیران شرکت اعلام کردند پلتفرم Rubin هزینه توکن‌های استنتاج را تا ده برابر کاهش می‌دهد و تعداد GPUهای مورد نیاز برای آموزش مدل‌های مبتنی بر معماری «mixture of experts» مانند DeepSeek را تا چهار برابر کم می‌کند.

علاوه بر این، انویدیا زیرساخت ذخیره‌سازی تازه‌ای را معرفی کرده که به طور ویژه برای استنتاج طراحی شده و «Inference Context Memory Storage Platform» نام دارد.

رواج «Agentic AI» در سال گذشته اهمیت بیشتری برای حافظه هوش مصنوعی ایجاد کرده است. این سیستم‌ها دیگر تنها به پرسش‌های منفرد پاسخ نمی‌دهند، بلکه انتظار می‌رود اطلاعات بیشتری از تعاملات قبلی را به خاطر بسپارند تا بتوانند برخی وظایف را به شکل خودکار انجام دهند؛ موضوعی که حجم داده‌های مدیریت‌شده در مرحله استنتاج را افزایش می‌دهد.


برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default