انویدیا تراشه هوش مصنوعی GB200 Blackwell را در اواخر سال جاری معرفی کرد
جنسن هوانگ، مدیرعامل انویدیا در کنفرانس هوش مصنوعی Nvidia GTC در مرکز SAP در 18 مارس 2024 در سن خوزه، کالیفرنیا صحبت میکند.
جاستین سالیوان | گتی ایماژ
Nvidia روز دوشنبه نسل جدیدی از تراشه های هوش مصنوعی و نرم افزار مدیریت مدل هوش مصنوعی را معرفی کرد. این اعلامیه که در کنفرانس توسعه دهندگان انویدیا در سن خوزه اعلام شد، در حالی است که سازنده تراشه به دنبال تثبیت جایگاه خود به عنوان تامین کننده پیشرو برای شرکت های هوش مصنوعی است.
قیمت سهام انویدیا از زمانی که ChatGPT OpenAI در اواخر سال 2022 شروع به کار کرد، پنج برابر شده و کل فروش آن بیش از سه برابر شده است. GPUهای سرور پیشرفته Nvidia برای آموزش و استقرار مدلهای هوش مصنوعی بزرگ ضروری هستند. شرکت ها دوست دارند مایکروسافت و متا میلیاردها دلار برای خرید تراشه ها هزینه کرده اند.
نسل جدید پردازنده های گرافیکی هوش مصنوعی بلک ول نام دارد. اولین تراشه بلکول GB200 نام دارد و اواخر امسال عرضه خواهد شد. انویدیا در حال جذب مشتریان خود با تراشه های قدرتمندتر برای تحریک سفارشات جدید است. به عنوان مثال، شرکتها و سازندگان نرمافزار همچنان در تلاش هستند تا نسل کنونی «Hopper» H100 و تراشههای مشابه را به دست آورند.
جنسن هوانگ، مدیرعامل انویدیا روز دوشنبه در کنفرانس توسعه دهندگان این شرکت در کالیفرنیا گفت: “Hopper فوق العاده است، اما ما به پردازنده های گرافیکی بزرگتر نیاز داریم.”
سهام انویدیا در معاملات طولانی روز دوشنبه بیش از 1 درصد سقوط کرد.
این شرکت همچنین از یک نرمافزار کسب درآمد به نام NIM رونمایی کرد که پیادهسازی هوش مصنوعی را آسانتر میکند و به مشتریان دلیل دیگری برای استفاده از تراشههای انویدیا در حوزه رو به رشد رقبا ارائه میدهد.
مدیران انویدیا میگویند که این شرکت کمتر به یک تامینکننده تراشه برای استخدام تبدیل میشود و بیشتر به یک ارائهدهنده پلتفرم مانند مایکروسافت یا اپل تبدیل میشود که سایر شرکتها میتوانند روی آن نرمافزار بسازند.
هوانگ گفت: “Blackwell یک تراشه نیست، بلکه نام یک پلتفرم است.”
معاون رئیس شرکت انویدیا، Manuvir Das در مصاحبه ای گفت: “محصول تجاری که می توانست فروخته شود GPU بود و این نرم افزار به منظور کمک به مردم در استفاده از GPU به روش های مختلف بود.” “البته ما هنوز این کار را انجام می دهیم. اما چیزی که واقعاً تغییر کرده این است که اکنون ما واقعاً یک تجارت نرم افزار تجاری داریم.”
داس گفت نرمافزار جدید انویدیا اجرای برنامهها را بر روی هر یک از GPUهای انویدیا آسانتر میکند، حتی آنهایی که ممکن است برای پیادهسازی اما نه ساختن هوش مصنوعی مناسبتر باشند.
Das “اگر شما یک توسعه دهنده هستید، مدل جالبی دارید که می خواهید مردم آن را اتخاذ کنند، اگر آن را در NIM قرار دهید، ما مطمئن خواهیم شد که می تواند روی همه پردازنده های گرافیکی ما اجرا شود، بنابراین شما به افراد زیادی دسترسی خواهید داشت.” گفت.
با بلک ول، جانشین هاپر آشنا شوید
سوپرتراشه GB200 Grace Blackwell انویدیا، با دو پردازنده گرافیکی B200 و یک CPU مبتنی بر Arm.
هر دو سال یکبار، انویدیا معماری GPU خود را به روز می کند و یک جهش بزرگ در عملکرد را باز می کند. بسیاری از مدلهای هوش مصنوعی منتشر شده در سال گذشته بر روی معماری Hopper این شرکت آموزش دیدهاند – که توسط تراشههایی مانند H100 استفاده میشود – که در سال ۲۰۲۲ معرفی شد.
انویدیا میگوید پردازندههای مبتنی بر بلکول مانند GB200، با 20 پتافلاپ در عملکرد هوش مصنوعی در مقابل 4 پتافلاپ برای H100، ارتقای عملکرد بسیار خوبی را برای شرکتهای هوش مصنوعی ارائه میکنند. به گفته انویدیا، قدرت پردازش اضافی به شرکتهای هوش مصنوعی امکان آموزش مدلهای بزرگتر و پیچیدهتر را میدهد.
این تراشه شامل چیزی است که Nvidia آن را «موتور ترانسفورماتور» مینامد که به طور خاص برای هدایت هوش مصنوعی مبتنی بر ترانسفورماتور، یکی از فناوریهای اصلی ChatGPT طراحی شده است.
پردازنده گرافیکی Blackwell بزرگ است و دو ماتریس جداگانه تولید شده را در یک تراشه که توسط TSMC. همچنین به عنوان یک سرور کامل به نام GB200 NVLink 2 در دسترس خواهد بود که 72 پردازنده گرافیکی بلک ول و سایر قطعات Nvidia را که برای آموزش مدل های هوش مصنوعی طراحی شده اند، ترکیب می کند.
جنسن هوانگ، مدیرعامل انویدیا، اندازه تراشه جدید بلک ول را با تراشه فعلی Hopper H100 در کنفرانس توسعه دهندگان این شرکت در سن خوزه، کالیفرنیا مقایسه کرد.
Nvidia
آمازون، گوگل، مایکروسافتو اوراکل دسترسی به GB200 را از طریق خدمات ابری به فروش می رساند. GB200 دو پردازنده گرافیکی Blackwell B200 را با یک پردازنده Grace مبتنی بر Arm ترکیب می کند. انویدیا گفت که خدمات وب آمازون یک خوشه سرور با 20000 تراشه GB200 ایجاد خواهد کرد.
انویدیا گفت این سیستم می تواند مدلی با 27 تریلیون پارامتر را پیاده سازی کند. این حتی از بزرگترین مدل ها مانند GPT-4 که گفته می شود 1.7 تریلیون پارامتر دارد، بسیار بزرگتر است. بسیاری از محققان هوش مصنوعی بر این باورند که مدل های بزرگتر با پارامترها و داده های بیشتر می توانند احتمالات جدیدی را باز کنند.
انویدیا قیمتی برای GB200 جدید یا سیستم هایی که در آن استفاده می شود ارائه نکرده است. بر اساس برآوردهای تحلیلگران، H100 مبتنی بر هاپر انویدیا بین 25000 تا 40000 دلار برای هر تراشه قیمت دارد و کل سیستم ها تا 200000 دلار قیمت دارند.
انویدیا همچنین پردازندههای گرافیکی B200 را به عنوان بخشی از یک سیستم کامل به فروش خواهد رساند که کل رک سرور را اشغال میکند.
میکروسرویس استنتاج انویدیا
انویدیا همچنین اعلام کرد که محصول جدیدی به نام NIM که مخفف Nvidia Inference Microservice است را به اشتراک نرم افزار Nvidia Enterprise اضافه می کند.
NIM استفاده از پردازندههای گرافیکی قدیمیتر انویدیا را برای استنتاج یا فرآیند اجرای نرمافزار هوش مصنوعی آسانتر میکند و به شرکتها اجازه میدهد تا به استفاده از صدها میلیون پردازنده گرافیکی انویدیا که قبلاً دارند، ادامه دهند. استنتاج به قدرت محاسباتی کمتری نسبت به آموزش اولیه یک مدل هوش مصنوعی جدید نیاز دارد. NIM شرکتهایی را که میخواهند مدلهای هوش مصنوعی خود را بهجای خرید دسترسی به نتایج هوش مصنوعی بهعنوان خدمات از شرکتهایی مانند OpenAI، اجرا کنند، میدهد.
استراتژی این است که مشتریانی که سرورهای مبتنی بر انویدیا را خریداری می کنند، برای ثبت نام در شرکت Nvidia، که برای هر GPU در سال 4500 دلار برای مجوز هزینه دارد، ثبت نام کنند.
انویدیا با شرکتهای هوش مصنوعی مانند مایکروسافت یا Hugging Face همکاری خواهد کرد تا مطمئن شود که مدلهای هوش مصنوعی آنها برای اجرا بر روی تمام تراشههای سازگار Nvidia تنظیم شدهاند. سپس، با استفاده از NIM، توسعهدهندگان میتوانند به طور مؤثر مدل را بر روی سرورهای خود یا سرورهای Nvidia مبتنی بر ابر بدون فرآیند پیکربندی طولانی اجرا کنند.
داس گفت: «در کدم که با OpenAI تماس میگرفتم، یک خط کد را جایگزین میکنم تا به این NIM که از Nvidia دریافت کردهام اشاره کنم.
انویدیا می گوید این نرم افزار همچنین به هوش مصنوعی کمک می کند تا به جای سرورهای ابری، روی لپ تاپ های مجهز به GPU اجرا شود.