انویدیا با معماری جدید بلک ول در حال ارتقاء پیشروی در بازی تراشه هوش مصنوعی است
انویدیا با معرفی معماری بلکول GPU خود در اولین کنفرانس حضوری فناوری GPU (GTC) در پنج سال گذشته، قدرت را در خط تراشههای هوش مصنوعی خود افزایش میدهد.
به گفته انویدیا، این تراشه که برای استفاده در مراکز داده بزرگ طراحی شده است – از نوع AWS، Azure و Google – عملکرد هوش مصنوعی 20 پتافلاپ را ارائه میکند که 4 برابر سریعتر در بارهای کاری یادگیری هوش مصنوعی، 30 برابر سریعتر در بارهای کاری استنباطشده با هوش مصنوعی و مصرف انرژی تا 25 برابر بیشتر از نسل قبلی خود است.
انویدیا معتقد است که B200 Blackwell در مقایسه با مدل قبلی خود، H100 “Hopper” هم قدرتمندتر و هم مصرف انرژی بیشتری دارد. به عنوان مثال، برای آموزش یک مدل هوش مصنوعی به اندازه یک GPT-4، به 8000 تراشه H100 و 15 مگاوات توان نیاز است. همین کار تنها به 2000 تراشه B200 و چهار مگاوات قدرت نیاز دارد.
Bob O'Donnell، بنیانگذار و تحلیلگر اصلی در Technalysis Research، در خبرنامه هفتگی لینکدین خود نوشت: «این اولین پیشرفت بزرگ شرکت در طراحی تراشه از زمان معرفی معماری Hopper در دو سال پیش است.
تمرین بسته بندی مجدد
با این حال، سباستین ژان، مدیر ارشد فناوری Phison Electronics، یک شرکت الکترونیکی تایوانی، این تراشه را “تمرینی در بسته بندی مجدد” نامید.
او به دیجیتال تو گفت: این خوب است، اما پیشگامانه نیست. سریعتر اجرا میشود، انرژی کمتری مصرف میکند و محاسبات بیشتری را در یک منطقه کوچکتر امکانپذیر میکند، اما از دیدگاه یک فنآور، آنها بدون تغییر واقعاً هیچ چیز اساسی، آن را کوچکتر کردهاند.»
او گفت: “این بدان معناست که نتایج آنها به راحتی توسط رقبای آنها تکرار می شود.” “اگرچه اول بودن ارزش دارد، زیرا زمانی که رقابت شما به نتیجه برسد، به مرحله بعدی می روید.”
او میگوید: «وقتی رقابتهای خود را مجبور میکنید به یک بازی دائمی برای رسیدن به موفقیت بپردازند، مگر اینکه رهبری بسیار قوی وجود داشته باشد، آنها بدون اینکه متوجه شوند در ذهنیت «پیرو سریع» قرار میگیرند.
او ادامه داد: «انویدیا با تهاجمی بودن و اول بودن میتواند این ایده را تقویت کند که آنها تنها مبتکران واقعی هستند، که باعث افزایش تقاضا برای محصولات آنها میشود.
او افزود در حالی که بلک ول ممکن است یک تمرین بسته بندی مجدد باشد، اما سود خالص واقعی دارد. او خاطرنشان کرد: در عمل، افرادی که از بلکول استفاده میکنند میتوانند محاسبات بیشتری را با همان قدرت و بودجه فضایی سریعتر انجام دهند. این امر راه حل های مبتنی بر Blackwell را قادر می سازد تا از رقبای خود پیشی بگیرند و عملکرد بهتری داشته باشند.”
پلاگین سازگار با عقب
O'Donnell ادعا می کند که موتور ترانسفورماتور نسل دوم معماری بلک ول پیشرفت قابل توجهی است زیرا محاسبات هوش مصنوعی ممیز شناور را از هشت بیت به چهار بیت کاهش می دهد. او گفت: «از نظر عملی، با کاهش این محاسبات از 8 بیتی در نسلهای قبلی، آنها میتوانند عملکرد محاسباتی و اندازه مدلهایی را که بلکول میتواند با این تغییر واحد پشتیبانی کند، دو برابر کند.
تراشه های جدید نیز با نسخه های قبلی خود سازگار هستند. جک ای گلد، بنیانگذار و تحلیلگر اصلی در J.Gold Associates، یک شرکت مشاوره فناوری اطلاعات در Northborough، ماساچوست، خاطرنشان کرد: «اگر قبلاً سیستمهای Nvidia با H100 دارید، بلکول با پلاگین سازگار است.
او به دیجیتال تو گفت: «در تئوری، شما فقط میتوانید H100s را خاموش کنید و Blackwells را روشن کنید. “در حالی که شما می توانید این کار را از نظر تئوری انجام دهید، ممکن است نتوانید آن را از نظر مالی انجام دهید.” برای مثال، تراشه H100 انویدیا هر کدام 30000 تا 40000 دلار قیمت دارد. اگرچه انویدیا قیمت خط جدید تراشه های هوش مصنوعی خود را اعلام نکرده است، اما قیمت گذاری احتمالاً مطابق با این خطوط خواهد بود.
گلد اضافه کرد که تراشه های بلک ول می تواند به توسعه دهندگان کمک کند تا برنامه های هوش مصنوعی بهتری ایجاد کنند. او توضیح داد: «هرچه نقاط داده بیشتری را بتوانید تجزیه و تحلیل کنید، هوش مصنوعی بهتر می شود. چیزی که انویدیا با بلک ول درباره آن صحبت می کند این است که به جای توانایی تجزیه و تحلیل میلیاردها نقطه داده، می توانید تریلیون ها را تجزیه و تحلیل کنید.
میکروسرویس های استنتاج انویدیا (NIM) نیز در GTC معرفی شدند. برایان کوللو، استراتژیست سهام در Morningstar Research، «ابزارهای NIM بر روی پلتفرم CUDA انویدیا ساخته شدهاند و به کسبوکارها اجازه میدهند تا برنامههای کاربردی سفارشی و مدلهای هوش مصنوعی از پیش آموزشدیدهشده را در محیطهای تولیدی مستقر کنند، که باید به این کسبوکارها کمک کند تا محصولات جدید هوش مصنوعی را به بازار عرضه کنند». سرویس، در شیکاگو، در یادداشت تحلیلی روز سه شنبه نوشت.
کمک به پیاده سازی هوش مصنوعی
شرکتهای بزرگ با مراکز داده میتوانند به سرعت فناوریهای جدید را بپذیرند و سریعتر آنها را پیادهسازی کنند، اما بیشتر افراد در شرکتهای کوچک و متوسط هستند که منابع لازم برای خرید، سفارشیسازی و پیادهسازی فناوریهای جدید را ندارند. شین راو، تحلیلگر نیمه هادی در IDC، یک شرکت تحقیقاتی بازار جهانی، توضیح داد: هر چیزی مانند NIM که بتواند به آنها کمک کند فناوری جدید را در آغوش بگیرند و آن را آسان تر به کار گیرند، برای آنها مفید خواهد بود.
او به دیجیتال تو گفت: «با NIM، مدلهای خاص کاری را که میخواهید انجام دهید پیدا خواهید کرد. همه نمی خواهند به طور کلی هوش مصنوعی انجام دهند. آنها می خواهند هوش مصنوعی بسازند که به طور خاص برای شرکت یا شرکت آنها مناسب باشد.”
در حالی که NIM به اندازه جدیدترین پروژه های سخت افزاری هیجان انگیز نیست، O'Donnell خاطرنشان کرد که در دراز مدت به دلایل متعددی اهمیت قابل توجهی دارد.
او می نویسد: «اول، باید حرکت شرکت ها از آزمایشات GenAI و POC (اثبات مفاهیم) به تولید در دنیای واقعی را سریعتر و کارآمدتر کند. به سادگی دانشمندان داده و کارشناسان برنامه نویسی GenAI کافی وجود ندارد، بنابراین بسیاری از شرکت هایی که مشتاق به استقرار GenAI بوده اند به دلیل چالش های فنی محدود شده اند. در نتیجه، دیدن کمک Nvidia به تسهیل این فرآیند بسیار عالی است.
او ادامه داد: «دوم، این میکروسرویسهای جدید ایجاد یک جریان درآمد و استراتژی تجاری کاملاً جدید را برای انویدیا امکانپذیر میسازد، زیرا میتوان آنها را بر اساس GPU/ساعت (و همچنین گزینههای دیگر) مجوز داد. این میتواند وسیلهای مهم، طولانیمدت و متنوعتر برای کسب درآمد برای انویدیا باشد، بنابراین اگرچه زود است، تماشای آن مهم خواهد بود.
یک رهبر مستقر
راو پیشبینی میکند که انویدیا بهعنوان پلتفرم انتخابی پردازش هوش مصنوعی در آینده قابل پیشبینی بهطور محکم باقی خواهد ماند. او گفت: «اما رقبایی مانند AMD و Intel میتوانند بخشهای کوچکی از بازار پردازندههای گرافیکی را تصاحب کنند. و از آنجایی که تراشه های مختلفی وجود دارد که می توانید برای هوش مصنوعی از آنها استفاده کنید – ریزپردازنده ها، FPGA ها و ASIC ها – این فناوری های رقیب برای سهم بازار با هم رقابت می کنند و رشد می کنند.
عبدالله انور احمد، بنیانگذار Serene Data Ops، یک شرکت مدیریت داده در سانفرانسیسکو، افزود: “تهدیدهای بسیار کمی برای تسلط انویدیا در این بازار وجود دارد.”
او به دیجیتال تو گفت: «علاوه بر سختافزار برتر، راهحل نرمافزار CUDA آنها برای بیش از یک دهه در قلب بخشهای اصلی هوش مصنوعی قرار داشته است.
او ادامه داد: «تهدید اصلی این است که آمازون، گوگل و مایکروسافت/OpenAI در حال کار بر روی ساخت تراشههای خود بهینهسازی شده بر روی این مدلها هستند. گوگل در حال حاضر تراشه TPU خود را تولید می کند. آمازون و OpenAI به پروژه های مشابه اشاره کرده اند.
او افزود: «در هر صورت، ساختن پردازندههای گرافیکی خود گزینهای است که تنها در اختیار بزرگترین شرکتها قرار دارد». “بیشتر صنعت LLM به خرید پردازنده های گرافیکی Nvidia ادامه خواهد داد.”