برای غول های فناوری، هوش مصنوعی مانند بینگ و بارد مشکلات جستجوی میلیارد دلاری ایجاد می کند
از آنجایی که Alphabet Inc باگ ربات چت را که به حذف 100 میلیارد دلار از ارزش بازار آن کمک کرد، نادیده میگیرد، چالش دیگری از تلاشهایش برای افزودن هوش مصنوعی مولد به جستجوی محبوب گوگل خود ظاهر میشود: قیمت.
مدیران در سراسر بخش فناوری در مورد نحوه مدیریت هوش مصنوعی مانند ChatGPT صحبت می کنند و در عین حال هزینه های بالایی را نیز در نظر می گیرند. سام آلتمن، مدیرعامل این استارتآپ در توییتر گفت: چت ربات بسیار محبوب OpenAI، که میتواند نثر بنویسد و به سؤالات جستجو پاسخ دهد، هزینههای محاسباتی «چشمگیر» چند سنت یا بیشتر در هر مکالمه دارد.
در مصاحبه ای، جان هنسی، رئیس Alphabet به رویترز گفت که تبادل هوش مصنوعی، که به عنوان یک مدل زبان بزرگ شناخته می شود، احتمالاً 10 برابر بیشتر از یک جستجوی کلیدواژه استاندارد هزینه خواهد داشت، اگرچه تنظیم دقیق به کاهش سریع هزینه ها کمک می کند.
به گفته تحلیلگران، حتی با درآمد حاصل از تبلیغات جستجوی بالقوه مبتنی بر چت، این فناوری میتواند با چندین میلیارد دلار هزینه اضافی به Mountain View، Alphabet مستقر در کالیفرنیا کمک کند. درآمد خالص آن در سال 2022 نزدیک به 60 میلیارد دلار بود.
مورگان استنلی تخمین زد که 3.3 تریلیون جستجوی گوگل در سال گذشته تقریباً یک پنجم سنت هزینه داشت، این رقم بسته به میزان متنی که هوش مصنوعی باید تولید کند، افزایش خواهد یافت. به عنوان مثال، اگر تحلیلگران پیش بینی می کنند که اگر هوش مصنوعی مشابه ChatGPT بتواند نیمی از پرس و جوهای دریافتی خود را با پاسخ های 50 کلمه ای پردازش کند، ممکن است گوگل تا سال 2024 با افزایش 6 میلیارد دلاری هزینه مواجه شود. بعید است که گوگل برای انجام جستجوهای ناوبری سایت هایی مانند ویکی پدیا به یک ربات چت نیاز داشته باشد.
دیگران به روش های مختلف به حساب مشابهی رسیدند. به عنوان مثال، SemiAnalysis، یک شرکت تحقیقاتی و مشاوره متمرکز بر فناوری تراشه، گفت که افزودن هوش مصنوعی به سبک ChatGPT به جستجو میتواند برای آلفابت 3 میلیارد دلار هزینه داشته باشد، مبلغی که توسط تراشههای داخلی Google به نام واحدهای پردازش تنسور یا TPU و بهینهسازیهای دیگر محدود میشود.
چیزی که این نوع هوش مصنوعی را نسبت به جستجوی معمولی گرانتر میکند، قدرت محاسباتی است. به گفته تحلیلگران، چنین هوش مصنوعی به میلیاردها دلار تراشه بستگی دارد، هزینه ای که باید در طول عمر مفید چندین ساله آنها تقسیم شود. برق همچنین هزینه ها و فشارها را بر شرکت هایی با هدف کاهش ردپای کربن آنها اضافه می کند.
فرآیند پردازش پرسشهای جستجوی مبتنی بر هوش مصنوعی به عنوان «استنتاج» شناخته میشود، که در آن یک «شبکه عصبی» که به طور ضعیف از زیستشناسی مغز انسان الگوبرداری شده است، پاسخ یک سؤال را از آموزش قبلی استنباط میکند.
برخلاف جستجوی سنتی، خزندههای وب گوگل اینترنت را برای جمعآوری فهرستی از اطلاعات اسکن کردهاند. هنگامی که کاربر درخواستی را وارد می کند، گوگل مرتبط ترین پاسخ های ذخیره شده در فهرست را نمایش می دهد.
هنسی آلفابت به رویترز گفت: “شما باید هزینه های تولید را کاهش دهید” و آن را “در بدترین حالت یک مشکل چند ساله” خواند.
آلفابت با وجود این هزینه، با فشار مواجه است تا چالش را بپذیرد. در اوایل این ماه، شرکت رقیب مایکروسافت، رویدادی را در مقر خود در ردموند، واشنگتن برگزار کرد تا برنامههایی را برای ایجاد فناوری چت هوش مصنوعی در موتور جستجوی Bing خود، با هدف قرار دادن مدیران ارشد 91 درصد از سهم بازار جستجوی گوگل، به Similarweb نشان دهد. رتبه بندی.
یک روز بعد، آلفابت در مورد برنامه هایی برای بهبود موتور جستجوی خود صحبت کرد، اما یک ویدیوی تبلیغاتی برای چت ربات هوش مصنوعی Bard خود نشان داد که سیستم به یک سوال اشتباه پاسخ می دهد و باعث سقوط سهام شد که ارزش بازار آن را 100 میلیارد دلار کاهش داد.
مایکروسافت بعداً هنگامی که گزارش شد هوش مصنوعی آن تهدیدهایی را به خود جلب کرد یا اظهار عشق به آزمایش کاربران کرد و این شرکت را بر آن داشت تا جلسات چت طولانی را که به گفته او پاسخهای ناخواسته “برانگیخته” میشد، محدود کند.
امی هود، مدیر مالی مایکروسافت، به تحلیلگران گفت که با عرضه بینگ جدید به میلیونها کاربر، سود جذب کاربران و درآمد تبلیغاتی بر هزینههای آن بیشتر است. او گفت: «این یک دلار حاشیه ناخالص اضافی برای ما است، حتی اگر هزینه خدمات مورد بحث ما باشد.
و یکی دیگر از رقبای گوگل، مدیرعامل موتور جستجوی You.com، ریچارد سوچر، گفت: افزودن یک تجربه چت هوش مصنوعی و همچنین برنامههایی برای نمودارها، ویدیوها و سایر فناوریهای مولد، هزینهها را بین 30 تا 50 درصد افزایش میدهد. او گفت: «تکنولوژی در مقیاس و در طول زمان ارزانتر میشود.
یک منبع نزدیک به گوگل هشدار داد که هنوز خیلی زود است که دقیقاً چقدر هزینه چت ربات ها را تعیین کنیم زیرا اثربخشی و استفاده بسته به فناوری مورد استفاده بسیار متفاوت است و هوش مصنوعی در حال حاضر محصولاتی مانند جستجو را تقویت می کند.
پل دوهرتی، مدیر ارشد فناوری Accenture گفت: با این حال، پرداخت صورتحساب یکی از دو دلیل اصلی است که غول های جستجو و رسانه های اجتماعی با میلیاردها کاربر یک شبه چت ربات هوش مصنوعی راه اندازی نکرده اند.
او گفت: «یکی دقت است، و دیگری این که باید این را به روش درست مقیاسبندی کنید.
کار ریاضی
برای سالها، محققان آلفابت و جاهای دیگر نحوه آموزش و اجرای مدلهای زبان بزرگ را ارزانتر مطالعه کردهاند.
مدل های بزرگتر به تراشه های سرب بیشتری نیاز دارند و بنابراین هزینه بیشتری دارند. هوش مصنوعی که کاربران را با اقتدار انسانی خود خیره می کند، به اندازه 175 میلیارد به اصطلاح پارامتر یا مقادیر متفاوتی که الگوریتم برای مدل OpenAI به روز شده در ChatGPT در نظر می گیرد، رسیده است. قیمت نیز بسته به طول پرس و جوی کاربر که در “توکن ها” یا بخش هایی از کلمات اندازه گیری می شود، متفاوت است.
یکی از مدیران ارشد فناوری به رویترز گفت که چنین هوش مصنوعی بسیار گران است و نمی توان آن را در دست میلیون ها کاربر قرار داد.
مدیر اجرایی به شرط ناشناس ماندن گفت: این مدل ها بسیار گران هستند و بنابراین سطح بعدی اختراع کاهش هزینه آموزش این مدل ها و استنتاج است تا بتوانیم از آنها در هر برنامه ای استفاده کنیم.
به گفته یک فرد آشنا با این تلاش، تاکنون دانشمندان کامپیوتر در OpenAI نحوه بهینهسازی هزینههای استنتاج را از طریق کدهای پیچیده که باعث میشود تراشهها کارآمدتر کار کنند، کشف کردهاند. یک سخنگوی OpenAI بلافاصله اظهار نظر نکرد.
یک مشکل طولانی مدت این است که چگونه می توان تعداد پارامترها را در یک مدل هوش مصنوعی به میزان 10 یا حتی 100 بدون از دست دادن دقت کاهش داد.
ناوین رائو که قبلا تلاشهای تراشههای هوش مصنوعی اینتل را مدیریت میکرد و اکنون برای کاهش هزینه محاسبات هوش مصنوعی از طریق استارتآپ MosaicML خود تلاش میکند، میگوید: «چگونه (پارامترها) را به بهترین نحو حذف کنید، هنوز یک سوال باز است.
در همین حال، برخی در حال بررسی هزینه برای دسترسی هستند، مانند اشتراک ماهیانه 20 دلاری OpenAI برای سرویس ChatGPT بهتر. کارشناسان فناوری همچنین گفتند که یک راهحل، استفاده از مدلهای هوش مصنوعی کوچکتر برای کارهای سادهتر است که آلفابت در حال بررسی آنها است.
این شرکت اعلام کرد که در این ماه یک نسخه «مدل کوچکتر» از فناوری عظیم هوش مصنوعی LaMDA خود، ربات چت Bard خود را تقویت میکند و به «قدرت محاسباتی بسیار کمتری نیاز دارد و به ما امکان میدهد تا کاربران بیشتری را مقیاس کنیم».
هنسی در مورد رباتهای چت مانند ChatGPT و Bard، هفته گذشته در کنفرانسی به نام TechSurge گفت که مدلهای متمرکزتر، به جای سیستمی که همه کارها را انجام میدهد، به کاهش هزینهها کمک میکند.