مارک زاکربرگ اشاره می کند که متا میلیاردها دلار برای تراشه های هوش مصنوعی انویدیا هزینه می کند
مارک زاکربرگ، بنیانگذار و مدیر عامل متا، در رویداد Meta Connect در دفتر مرکزی متا در منلو پارک، کالیفرنیا در 27 سپتامبر 2023 صحبت می کند.
جاش ادلسون | خبرگزاری فرانسه | گتی ایماژ
متا میلیاردها دلار خرج کنید از Nvidia تراشه های کامپیوتری محبوبی که زیربنای تحقیقات و پروژه های هوش مصنوعی هستند.
زاکربرگ در پستی در اینستاگرام Reels در روز پنجشنبه گفت که “نقشه راه آینده” این شرکت برای هوش مصنوعی مستلزم ایجاد یک “زیرساخت محاسباتی در مقیاس” است. زاکربرگ گفت تا پایان سال 2024 زیرساخت شامل 350000 کارت گرافیک H100 از Nvidia خواهد بود.
زاکربرگ نگفت چه تعداد از واحدهای پردازش گرافیکی (GPU) این شرکت قبلا خریداری کرده است، اما H100 تا اواخر سال 2022 وارد بازار نشد و عرضه محدودی داشت. تحلیلگران ریموند جیمز تخمین می زنند که انویدیا H100 را به قیمت 25000 تا 30000 دلار به فروش می رساند. eBay آنها می توانند بیش از 40000 دلار هزینه داشته باشند.
علاوه بر این، زاکربرگ گفت که زیرساختهای محاسباتی متا حاوی «تقریباً 600 هزار محاسبات معادل H100 در صورتی که GPUهای دیگر را نیز در نظر بگیرید» خواهد بود. در ماه دسامبر، شرکت های فناوری مانند Meta، OpenAI و مایکروسافت گفت که آنها از تراشه های کامپیوتری جدید Instinct MI300X AI از AMD استفاده خواهند کرد.
متا به این تراشههای رایانهای سنگین نیاز دارد زیرا به دنبال تحقیق در مورد هوش عمومی مصنوعی (AGI) است، که زاکربرگ میگوید یک چشمانداز بلندمدت برای شرکت است. OpenAI و بخش DeepMind گوگل همچنین در حال تحقیق بر روی AGI هستند، شکلی از هوش مصنوعی که با هوش در سطح انسان قابل مقایسه است.
جان لکون، دانشمند ارشد متا، ماه گذشته در یک رویداد رسانه ای در سانفرانسیسکو بر اهمیت پردازنده های گرافیکی تاکید کرد.
“[If] اگر فکر میکنید AGI در بازی وجود دارد، باید پردازندههای گرافیکی بیشتری بخرید.”
در گزارش درآمد سه ماهه سوم متا، این شرکت اعلام کرد که کل هزینههای سال 2024 بین 94 تا 99 میلیارد دلار خواهد بود که بخشی از آن ناشی از توسعه محاسباتی است.
زاکربرگ در تماس با تحلیلگران گفت: از نظر اولویت های سرمایه گذاری، هوش مصنوعی بزرگترین حوزه سرمایه گذاری ما در سال 2024 خواهد بود، هم در مهندسی و هم در محاسبات.
زاکربرگ روز پنجشنبه گفت که متا قصد دارد “هوش عمومی” هنوز توسعه نیافته خود را “مسئولانه منبع باز” کند، رویکردی که این شرکت همچنین با خانواده مدل های زبان بزرگ Llama خود در پیش گرفته است.
زاکربرگ گفت که متا در حال حاضر در حال آموزش Llama 3 است و همچنین از تیم تحقیقاتی بنیادی هوش مصنوعی (FAIR) و تیم تحقیقاتی GenAI همکاری نزدیکتری با یکدیگر میکند.
مدت کوتاهی پس از پست زاکربرگ، لیکان در الف پست به X که “برای تسریع پیشرفت، FAIR اکنون یک سازمان خواهر با GenAI، بخش محصولات هوش مصنوعی است.”
— کیف لسوینگ از CNBC در این گزارش مشارکت داشت
دارم تماشا میکنم: اسب تاریک هوش مصنوعی: چرا اپل می تواند در تکامل بعدی مسابقه تسلیحاتی هوش مصنوعی پیروز شود