تکنولوژی

انویدیا تراشه هوش مصنوعی GB200 Blackwell را در اواخر سال جاری معرفی کرد

جنسن هوانگ، مدیرعامل انویدیا در کنفرانس هوش مصنوعی Nvidia GTC در مرکز SAP در 18 مارس 2024 در سن خوزه، کالیفرنیا صحبت می‌کند.

جاستین سالیوان | گتی ایماژ

Nvidia روز دوشنبه نسل جدیدی از تراشه های هوش مصنوعی و نرم افزار مدیریت مدل هوش مصنوعی را معرفی کرد. این اعلامیه که در کنفرانس توسعه دهندگان انویدیا در سن خوزه اعلام شد، در حالی است که سازنده تراشه به دنبال تثبیت جایگاه خود به عنوان تامین کننده پیشرو برای شرکت های هوش مصنوعی است.

قیمت سهام انویدیا از زمانی که ChatGPT OpenAI در اواخر سال 2022 شروع به کار کرد، پنج برابر شده و کل فروش آن بیش از سه برابر شده است. GPUهای سرور پیشرفته Nvidia برای آموزش و استقرار مدل‌های هوش مصنوعی بزرگ ضروری هستند. شرکت ها دوست دارند مایکروسافت و متا میلیاردها دلار برای خرید تراشه ها هزینه کرده اند.

نسل جدید پردازنده های گرافیکی هوش مصنوعی بلک ول نام دارد. اولین تراشه بلک‌ول GB200 نام دارد و اواخر امسال عرضه خواهد شد. انویدیا در حال جذب مشتریان خود با تراشه های قدرتمندتر برای تحریک سفارشات جدید است. به عنوان مثال، شرکت‌ها و سازندگان نرم‌افزار همچنان در تلاش هستند تا نسل کنونی «Hopper» H100 و تراشه‌های مشابه را به دست آورند.

جنسن هوانگ، مدیرعامل انویدیا روز دوشنبه در کنفرانس توسعه دهندگان این شرکت در کالیفرنیا گفت: “Hopper فوق العاده است، اما ما به پردازنده های گرافیکی بزرگتر نیاز داریم.”

سهام انویدیا در معاملات طولانی روز دوشنبه بیش از 1 درصد سقوط کرد.

این شرکت همچنین از یک نرم‌افزار کسب درآمد به نام NIM رونمایی کرد که پیاده‌سازی هوش مصنوعی را آسان‌تر می‌کند و به مشتریان دلیل دیگری برای استفاده از تراشه‌های انویدیا در حوزه رو به رشد رقبا ارائه می‌دهد.

مدیران انویدیا می‌گویند که این شرکت کمتر به یک تامین‌کننده تراشه برای استخدام تبدیل می‌شود و بیشتر به یک ارائه‌دهنده پلتفرم مانند مایکروسافت یا اپل تبدیل می‌شود که سایر شرکت‌ها می‌توانند روی آن نرم‌افزار بسازند.

مطلب پیشنهادی:  اخراج اسپیس ایکس: کارکنان اخراج شده شرکت را به نقض قوانین کار متهم می کنند

هوانگ گفت: “Blackwell یک تراشه نیست، بلکه نام یک پلتفرم است.”

معاون رئیس شرکت انویدیا، Manuvir Das در مصاحبه ای گفت: “محصول تجاری که می توانست فروخته شود GPU بود و این نرم افزار به منظور کمک به مردم در استفاده از GPU به روش های مختلف بود.” “البته ما هنوز این کار را انجام می دهیم. اما چیزی که واقعاً تغییر کرده این است که اکنون ما واقعاً یک تجارت نرم افزار تجاری داریم.”

داس گفت نرم‌افزار جدید انویدیا اجرای برنامه‌ها را بر روی هر یک از GPUهای انویدیا آسان‌تر می‌کند، حتی آن‌هایی که ممکن است برای پیاده‌سازی اما نه ساختن هوش مصنوعی مناسب‌تر باشند.

Das “اگر شما یک توسعه دهنده هستید، مدل جالبی دارید که می خواهید مردم آن را اتخاذ کنند، اگر آن را در NIM قرار دهید، ما مطمئن خواهیم شد که می تواند روی همه پردازنده های گرافیکی ما اجرا شود، بنابراین شما به افراد زیادی دسترسی خواهید داشت.” گفت.

با بلک ول، جانشین هاپر آشنا شوید

سوپرتراشه GB200 Grace Blackwell انویدیا، با دو پردازنده گرافیکی B200 و یک CPU مبتنی بر Arm.

هر دو سال یکبار، انویدیا معماری GPU خود را به روز می کند و یک جهش بزرگ در عملکرد را باز می کند. بسیاری از مدل‌های هوش مصنوعی منتشر شده در سال گذشته بر روی معماری Hopper این شرکت آموزش دیده‌اند – که توسط تراشه‌هایی مانند H100 استفاده می‌شود – که در سال ۲۰۲۲ معرفی شد.

انویدیا می‌گوید پردازنده‌های مبتنی بر بلک‌ول مانند GB200، با 20 پتافلاپ در عملکرد هوش مصنوعی در مقابل 4 پتافلاپ برای H100، ارتقای عملکرد بسیار خوبی را برای شرکت‌های هوش مصنوعی ارائه می‌کنند. به گفته انویدیا، قدرت پردازش اضافی به شرکت‌های هوش مصنوعی امکان آموزش مدل‌های بزرگ‌تر و پیچیده‌تر را می‌دهد.

مطلب پیشنهادی:  شرکت های بازی آنلاین هندی نسبت به تأثیر "ویرانگر" افزایش مالیات هشدار می دهند

این تراشه شامل چیزی است که Nvidia آن را «موتور ترانسفورماتور» می‌نامد که به طور خاص برای هدایت هوش مصنوعی مبتنی بر ترانسفورماتور، یکی از فناوری‌های اصلی ChatGPT طراحی شده است.

پردازنده گرافیکی Blackwell بزرگ است و دو ماتریس جداگانه تولید شده را در یک تراشه که توسط TSMC. همچنین به عنوان یک سرور کامل به نام GB200 NVLink 2 در دسترس خواهد بود که 72 پردازنده گرافیکی بلک ول و سایر قطعات Nvidia را که برای آموزش مدل های هوش مصنوعی طراحی شده اند، ترکیب می کند.

جنسن هوانگ، مدیرعامل انویدیا، اندازه تراشه جدید بلک ول را با تراشه فعلی Hopper H100 در کنفرانس توسعه دهندگان این شرکت در سن خوزه، کالیفرنیا مقایسه کرد.

Nvidia

آمازون، گوگل، مایکروسافتو اوراکل دسترسی به GB200 را از طریق خدمات ابری به فروش می رساند. GB200 دو پردازنده گرافیکی Blackwell B200 را با یک پردازنده Grace مبتنی بر Arm ترکیب می کند. انویدیا گفت که خدمات وب آمازون یک خوشه سرور با 20000 تراشه GB200 ایجاد خواهد کرد.

انویدیا گفت این سیستم می تواند مدلی با 27 تریلیون پارامتر را پیاده سازی کند. این حتی از بزرگترین مدل ها مانند GPT-4 که ​​گفته می شود 1.7 تریلیون پارامتر دارد، بسیار بزرگتر است. بسیاری از محققان هوش مصنوعی بر این باورند که مدل های بزرگتر با پارامترها و داده های بیشتر می توانند احتمالات جدیدی را باز کنند.

انویدیا قیمتی برای GB200 جدید یا سیستم هایی که در آن استفاده می شود ارائه نکرده است. بر اساس برآوردهای تحلیلگران، H100 مبتنی بر هاپر انویدیا بین 25000 تا 40000 دلار برای هر تراشه قیمت دارد و کل سیستم ها تا 200000 دلار قیمت دارند.

مطلب پیشنهادی:  5 چیز در مورد هوش مصنوعی که ممکن است امروز از دست داده باشید: هوآوی از مدل هوش مصنوعی Zhiji، اینفلوئنسرهای هوش مصنوعی در رسانه های اجتماعی و موارد دیگر رونمایی می کند.

انویدیا همچنین پردازنده‌های گرافیکی B200 را به عنوان بخشی از یک سیستم کامل به فروش خواهد رساند که کل رک سرور را اشغال می‌کند.

میکروسرویس استنتاج انویدیا

انویدیا همچنین اعلام کرد که محصول جدیدی به نام NIM که مخفف Nvidia Inference Microservice است را به اشتراک نرم افزار Nvidia Enterprise اضافه می کند.

NIM استفاده از پردازنده‌های گرافیکی قدیمی‌تر انویدیا را برای استنتاج یا فرآیند اجرای نرم‌افزار هوش مصنوعی آسان‌تر می‌کند و به شرکت‌ها اجازه می‌دهد تا به استفاده از صدها میلیون پردازنده گرافیکی انویدیا که قبلاً دارند، ادامه دهند. استنتاج به قدرت محاسباتی کمتری نسبت به آموزش اولیه یک مدل هوش مصنوعی جدید نیاز دارد. NIM شرکت‌هایی را که می‌خواهند مدل‌های هوش مصنوعی خود را به‌جای خرید دسترسی به نتایج هوش مصنوعی به‌عنوان خدمات از شرکت‌هایی مانند OpenAI، اجرا کنند، می‌دهد.

استراتژی این است که مشتریانی که سرورهای مبتنی بر انویدیا را خریداری می کنند، برای ثبت نام در شرکت Nvidia، که برای هر GPU در سال 4500 دلار برای مجوز هزینه دارد، ثبت نام کنند.

انویدیا با شرکت‌های هوش مصنوعی مانند مایکروسافت یا Hugging Face همکاری خواهد کرد تا مطمئن شود که مدل‌های هوش مصنوعی آن‌ها برای اجرا بر روی تمام تراشه‌های سازگار Nvidia تنظیم شده‌اند. سپس، با استفاده از NIM، توسعه‌دهندگان می‌توانند به طور مؤثر مدل را بر روی سرورهای خود یا سرورهای Nvidia مبتنی بر ابر بدون فرآیند پیکربندی طولانی اجرا کنند.

داس گفت: «در کدم که با OpenAI تماس می‌گرفتم، یک خط کد را جایگزین می‌کنم تا به این NIM که از Nvidia دریافت کرده‌ام اشاره کنم.

انویدیا می گوید این نرم افزار همچنین به هوش مصنوعی کمک می کند تا به جای سرورهای ابری، روی لپ تاپ های مجهز به GPU اجرا شود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا