تکنولوژی

انویدیا با معماری جدید بلک ول در حال ارتقاء پیشروی در بازی تراشه هوش مصنوعی است

انویدیا با معرفی معماری بلک‌ول GPU خود در اولین کنفرانس حضوری فناوری GPU (GTC) در پنج سال گذشته، قدرت را در خط تراشه‌های هوش مصنوعی خود افزایش می‌دهد.

به گفته انویدیا، این تراشه که برای استفاده در مراکز داده بزرگ طراحی شده است – از نوع AWS، Azure و Google – عملکرد هوش مصنوعی 20 پتافلاپ را ارائه می‌کند که 4 برابر سریع‌تر در بارهای کاری یادگیری هوش مصنوعی، 30 برابر سریع‌تر در بارهای کاری استنباط‌شده با هوش مصنوعی و مصرف انرژی تا 25 برابر بیشتر از نسل قبلی خود است.

انویدیا معتقد است که B200 Blackwell در مقایسه با مدل قبلی خود، H100 “Hopper” هم قدرتمندتر و هم مصرف انرژی بیشتری دارد. به عنوان مثال، برای آموزش یک مدل هوش مصنوعی به اندازه یک GPT-4، به 8000 تراشه H100 و 15 مگاوات توان نیاز است. همین کار تنها به 2000 تراشه B200 و چهار مگاوات قدرت نیاز دارد.

Bob O'Donnell، بنیانگذار و تحلیلگر اصلی در Technalysis Research، در خبرنامه هفتگی لینکدین خود نوشت: «این اولین پیشرفت بزرگ شرکت در طراحی تراشه از زمان معرفی معماری Hopper در دو سال پیش است.

تمرین بسته بندی مجدد

با این حال، سباستین ژان، مدیر ارشد فناوری Phison Electronics، یک شرکت الکترونیکی تایوانی، این تراشه را “تمرینی در بسته بندی مجدد” نامید.

او به دیجیتال تو گفت: این خوب است، اما پیشگامانه نیست. سریع‌تر اجرا می‌شود، انرژی کمتری مصرف می‌کند و محاسبات بیشتری را در یک منطقه کوچک‌تر امکان‌پذیر می‌کند، اما از دیدگاه یک فن‌آور، آن‌ها بدون تغییر واقعاً هیچ چیز اساسی، آن را کوچک‌تر کرده‌اند.»

او گفت: “این بدان معناست که نتایج آنها به راحتی توسط رقبای آنها تکرار می شود.” “اگرچه اول بودن ارزش دارد، زیرا زمانی که رقابت شما به نتیجه برسد، به مرحله بعدی می روید.”

او می‌گوید: «وقتی رقابت‌های خود را مجبور می‌کنید به یک بازی دائمی برای رسیدن به موفقیت بپردازند، مگر اینکه رهبری بسیار قوی وجود داشته باشد، آنها بدون اینکه متوجه شوند در ذهنیت «پیرو سریع» قرار می‌گیرند.

مطلب پیشنهادی:  ISS از سهامداران اپل می‌خواهد به تیم کوک مدیرعامل و بسته‌های پرداختی سایر مدیران اجرایی رای دهند.

او ادامه داد: «انویدیا با تهاجمی بودن و اول بودن می‌تواند این ایده را تقویت کند که آنها تنها مبتکران واقعی هستند، که باعث افزایش تقاضا برای محصولات آنها می‌شود.

او افزود در حالی که بلک ول ممکن است یک تمرین بسته بندی مجدد باشد، اما سود خالص واقعی دارد. او خاطرنشان کرد: در عمل، افرادی که از بلک‌ول استفاده می‌کنند می‌توانند محاسبات بیشتری را با همان قدرت و بودجه فضایی سریع‌تر انجام دهند. این امر راه حل های مبتنی بر Blackwell را قادر می سازد تا از رقبای خود پیشی بگیرند و عملکرد بهتری داشته باشند.”

پلاگین سازگار با عقب

O'Donnell ادعا می کند که موتور ترانسفورماتور نسل دوم معماری بلک ول پیشرفت قابل توجهی است زیرا محاسبات هوش مصنوعی ممیز شناور را از هشت بیت به چهار بیت کاهش می دهد. او گفت: «از نظر عملی، با کاهش این محاسبات از 8 بیتی در نسل‌های قبلی، آنها می‌توانند عملکرد محاسباتی و اندازه مدل‌هایی را که بلک‌ول می‌تواند با این تغییر واحد پشتیبانی کند، دو برابر کند.

تراشه های جدید نیز با نسخه های قبلی خود سازگار هستند. جک ای گلد، بنیانگذار و تحلیلگر اصلی در J.Gold Associates، یک شرکت مشاوره فناوری اطلاعات در Northborough، ماساچوست، خاطرنشان کرد: «اگر قبلاً سیستم‌های Nvidia با H100 دارید، بلک‌ول با پلاگین سازگار است.


او به دیجیتال تو گفت: «در تئوری، شما فقط می‌توانید H100s را خاموش کنید و Blackwells را روشن کنید. “در حالی که شما می توانید این کار را از نظر تئوری انجام دهید، ممکن است نتوانید آن را از نظر مالی انجام دهید.” برای مثال، تراشه H100 انویدیا هر کدام 30000 تا 40000 دلار قیمت دارد. اگرچه انویدیا قیمت خط جدید تراشه های هوش مصنوعی خود را اعلام نکرده است، اما قیمت گذاری احتمالاً مطابق با این خطوط خواهد بود.

گلد اضافه کرد که تراشه های بلک ول می تواند به توسعه دهندگان کمک کند تا برنامه های هوش مصنوعی بهتری ایجاد کنند. او توضیح داد: «هرچه نقاط داده بیشتری را بتوانید تجزیه و تحلیل کنید، هوش مصنوعی بهتر می شود. چیزی که انویدیا با بلک ول درباره آن صحبت می کند این است که به جای توانایی تجزیه و تحلیل میلیاردها نقطه داده، می توانید تریلیون ها را تجزیه و تحلیل کنید.

مطلب پیشنهادی:  با نزدیک شدن به اعتدال، طوفان خورشیدی TERROR برای زمین ظاهر می شود. بدانید که چرا تاریخ عالی است

میکروسرویس های استنتاج انویدیا (NIM) نیز در GTC معرفی شدند. برایان کوللو، استراتژیست سهام در Morningstar Research، «ابزارهای NIM بر روی پلتفرم CUDA انویدیا ساخته شده‌اند و به کسب‌وکارها اجازه می‌دهند تا برنامه‌های کاربردی سفارشی و مدل‌های هوش مصنوعی از پیش آموزش‌دیده‌شده را در محیط‌های تولیدی مستقر کنند، که باید به این کسب‌وکارها کمک کند تا محصولات جدید هوش مصنوعی را به بازار عرضه کنند». سرویس، در شیکاگو، در یادداشت تحلیلی روز سه شنبه نوشت.

کمک به پیاده سازی هوش مصنوعی

شرکت‌های بزرگ با مراکز داده می‌توانند به سرعت فناوری‌های جدید را بپذیرند و سریع‌تر آن‌ها را پیاده‌سازی کنند، اما بیشتر افراد در شرکت‌های کوچک و متوسط ​​هستند که منابع لازم برای خرید، سفارشی‌سازی و پیاده‌سازی فناوری‌های جدید را ندارند. شین راو، تحلیلگر نیمه هادی در IDC، یک شرکت تحقیقاتی بازار جهانی، توضیح داد: هر چیزی مانند NIM که بتواند به آنها کمک کند فناوری جدید را در آغوش بگیرند و آن را آسان تر به کار گیرند، برای آنها مفید خواهد بود.

او به دیجیتال تو گفت: «با NIM، مدل‌های خاص کاری را که می‌خواهید انجام دهید پیدا خواهید کرد. همه نمی خواهند به طور کلی هوش مصنوعی انجام دهند. آنها می خواهند هوش مصنوعی بسازند که به طور خاص برای شرکت یا شرکت آنها مناسب باشد.”

در حالی که NIM به اندازه جدیدترین پروژه های سخت افزاری هیجان انگیز نیست، O'Donnell خاطرنشان کرد که در دراز مدت به دلایل متعددی اهمیت قابل توجهی دارد.


او می نویسد: «اول، باید حرکت شرکت ها از آزمایشات GenAI و POC (اثبات مفاهیم) به تولید در دنیای واقعی را سریعتر و کارآمدتر کند. به سادگی دانشمندان داده و کارشناسان برنامه نویسی GenAI کافی وجود ندارد، بنابراین بسیاری از شرکت هایی که مشتاق به استقرار GenAI بوده اند به دلیل چالش های فنی محدود شده اند. در نتیجه، دیدن کمک Nvidia به تسهیل این فرآیند بسیار عالی است.

مطلب پیشنهادی:  آمازون هوش مصنوعی الکسا را ​​تقویت می کند، شما را وادار به پرداخت می کند. شما همه چیز را در مورد "الکسا پلاس" شایعه شده می دانید

او ادامه داد: «دوم، این میکروسرویس‌های جدید ایجاد یک جریان درآمد و استراتژی تجاری کاملاً جدید را برای انویدیا امکان‌پذیر می‌سازد، زیرا می‌توان آن‌ها را بر اساس GPU/ساعت (و همچنین گزینه‌های دیگر) مجوز داد. این می‌تواند وسیله‌ای مهم، طولانی‌مدت و متنوع‌تر برای کسب درآمد برای انویدیا باشد، بنابراین اگرچه زود است، تماشای آن مهم خواهد بود.

یک رهبر مستقر

راو پیش‌بینی می‌کند که انویدیا به‌عنوان پلتفرم انتخابی پردازش هوش مصنوعی در آینده قابل پیش‌بینی به‌طور محکم باقی خواهد ماند. او گفت: «اما رقبایی مانند AMD و Intel می‌توانند بخش‌های کوچکی از بازار پردازنده‌های گرافیکی را تصاحب کنند. و از آنجایی که تراشه های مختلفی وجود دارد که می توانید برای هوش مصنوعی از آنها استفاده کنید – ریزپردازنده ها، FPGA ها و ASIC ها – این فناوری های رقیب برای سهم بازار با هم رقابت می کنند و رشد می کنند.

عبدالله انور احمد، بنیانگذار Serene Data Ops، یک شرکت مدیریت داده در سانفرانسیسکو، افزود: “تهدیدهای بسیار کمی برای تسلط انویدیا در این بازار وجود دارد.”

او به دیجیتال تو گفت: «علاوه بر سخت‌افزار برتر، راه‌حل نرم‌افزار CUDA آنها برای بیش از یک دهه در قلب بخش‌های اصلی هوش مصنوعی قرار داشته است.

او ادامه داد: «تهدید اصلی این است که آمازون، گوگل و مایکروسافت/OpenAI در حال کار بر روی ساخت تراشه‌های خود بهینه‌سازی شده بر روی این مدل‌ها هستند. گوگل در حال حاضر تراشه TPU خود را تولید می کند. آمازون و OpenAI به پروژه های مشابه اشاره کرده اند.

او افزود: «در هر صورت، ساختن پردازنده‌های گرافیکی خود گزینه‌ای است که تنها در اختیار بزرگترین شرکت‌ها قرار دارد». “بیشتر صنعت LLM به خرید پردازنده های گرافیکی Nvidia ادامه خواهد داد.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا