رشد شدید تقاضا برای هوش مصنوعی و کمبود عرضه حافظه به موضوع اصلی صنعت تبدیل شده است و در نمایشگاه CES 2026 لاسوگاس نیز محور معرفیهای تازه انویدیا بود.
این شرکت روز دوشنبه پلتفرم «Rubin» را رونمایی کرد؛ مجموعهای از شش تراشه که در کنار هم یک ابررایانه هوش مصنوعی تشکیل میدهند. مسئولان انویدیا میگویند این پلتفرم نسبت به مدلهای Blackwell کارآمدتر است و توان پردازشی و پهنای باند حافظه بیشتری ارائه میدهد. مدیرعامل انویدیا جنسن هوانگ اعلام کرد Rubin در زمانی عرضه میشود که تقاضا برای آموزش و اجرای مدلهای هوش مصنوعی به اوج رسیده است.
محصولات مبتنی بر Rubin از نیمه دوم سال 2026 توسط شرکای انویدیا عرضه خواهند شد. شرکتهایی مانند AWS، Anthropic، گوگل، متا، مایکروسافت، OpenAI، اوراکل و xAI از جمله مشتریان این پلتفرم خواهند بود. مدیرعامل Anthropic داریو آمودی نیز گفت پیشرفتهای کارایی در Rubin زیرساختی فراهم میکند که حافظه طولانیتر، استدلال بهتر و خروجیهای قابل اعتمادتر را ممکن میسازد.
در همین حال، کمبود تراشههای حافظه باعث شده GPUها به کالایی کمیاب و گران تبدیل شوند. گزارش Tom’s Hardware نشان میدهد پروژههای عظیم مراکز داده حدود 40 درصد از تولید جهانی تراشههای DRAM را مصرف کردهاند. این کمبود به افزایش قیمت در محصولات الکترونیکی مصرفی منجر شده و احتمالاً بازار GPU را نیز تحت تأثیر قرار میدهد. خبرگزاری کرهای Newsis گزارش داده است که شرکت AMD قصد دارد قیمت برخی کارتهای گرافیک خود را در همین ماه افزایش دهد و گفته میشود انویدیا نیز در فوریه همین مسیر را دنبال خواهد کرد.
انویدیا تمرکز خود را بر عبور از گلوگاه تراشهها گذاشته است. این شرکت ماه گذشته بزرگترین خرید تاریخ خود را با تصاحب شرکت Groq، سازنده تراشههای ویژه پردازش استنتاج، انجام داد.
اکنون با محصولی که وعده سطح بالای استنتاج و امکان آموزش مدلهای پیچیده با تعداد تراشه کمتر و هزینه پایینتر را میدهد، انویدیا امیدوار است بخشی از نگرانیهای ناشی از کمبود تراشه در صنعت را کاهش دهد. مدیران شرکت اعلام کردند پلتفرم Rubin هزینه توکنهای استنتاج را تا ده برابر کاهش میدهد و تعداد GPUهای مورد نیاز برای آموزش مدلهای مبتنی بر معماری «mixture of experts» مانند DeepSeek را تا چهار برابر کم میکند.
علاوه بر این، انویدیا زیرساخت ذخیرهسازی تازهای را معرفی کرده که به طور ویژه برای استنتاج طراحی شده و «Inference Context Memory Storage Platform» نام دارد.
رواج «Agentic AI» در سال گذشته اهمیت بیشتری برای حافظه هوش مصنوعی ایجاد کرده است. این سیستمها دیگر تنها به پرسشهای منفرد پاسخ نمیدهند، بلکه انتظار میرود اطلاعات بیشتری از تعاملات قبلی را به خاطر بسپارند تا بتوانند برخی وظایف را به شکل خودکار انجام دهند؛ موضوعی که حجم دادههای مدیریتشده در مرحله استنتاج را افزایش میدهد.

