رقابت برای ماموران هوش مصنوعی «خودمختار» سیلیکون ولی را فرا گرفته است
حدود یک دهه پس از ورود دستیارهای مجازی مانند سیری و الکسا به صحنه، موج جدیدی از دستیاران هوش مصنوعی با استقلال بیشتر در حال افزایش خطرات هستند که توسط آخرین نسخه فناوری پشت سر ChatGPT و رقبای آن طراحی شده است.
سیستمهای آزمایشی که بر روی GPT-4 یا مدلهای مشابه کار میکنند، میلیاردها دلار سرمایه جذب میکنند، زیرا دره سیلیکون برای استفاده از پیشرفتهای هوش مصنوعی رقابت میکند. دستیاران جدید – که اغلب «عامل» یا «کمک خلبان» نامیده میشوند – وعده میدهند که بدون نیاز به نظارت دقیق، وظایف شخصی و کاری پیچیدهتر را زمانی که توسط یک انسان فرماندهی میشوند، انجام دهند.
توسعه دهنده Div Garg، که شرکت MultiOn در حال آزمایش بتا یک عامل هوش مصنوعی است، گفت: “در سطح بالایی، ما می خواهیم این به نوعی شبیه دوست هوش مصنوعی شخصی شما شود.”
او با اشاره به هوش مصنوعی ضروری تونی استارک در فیلم های مرد آهنی افزود: «این می تواند به جارویس تبدیل شود، جایی که ما می خواهیم به بسیاری از خدمات شما متصل شود». “اگر می خواهید کاری انجام دهید، با هوش مصنوعی خود صحبت کنید و آن کار شما را انجام خواهد داد.”
این صنعت هنوز تا تقلید از دستیاران دیجیتال خیره کننده داستان های علمی تخیلی فاصله زیادی دارد. به عنوان مثال، نماینده Garg برای سفارش یک همبرگر در DoorDash در وب گشت میزند، در حالی که دیگران میتوانند استراتژیهای سرمایهگذاری ایجاد کنند، به افرادی که یخچال میفروشند در Craigslist ایمیل بزنند، یا جلسات کاری را برای افرادی که دیرتر وارد میشوند جمعآوری کنند.
Kangjun Qiu، مدیر عامل Generally Intelligent، یک رقیب OpenAI که هوش مصنوعی را برای عوامل ایجاد میکند، گفت: «بسیاری از چیزهایی که برای انسانها آسان است، هنوز برای رایانهها بسیار سخت است.
فرض کنید رئیس شما به شما نیاز دارد که یک جلسه با گروهی از مشتریان مهم برنامه ریزی کنید. این شامل مهارتهای استدلالی میشود که برای هوش مصنوعی پیچیده است – باید اولویتهای همه را درک کند، تضادها را حل کند و در عین حال توجه لازم را هنگام برخورد با مشتریان حفظ کند.
با توجه به مصاحبههای رویترز، تلاشهای اولیه صرفاً طعمی از اصلاحاتی است که ممکن است در سالهای آینده از سوی عوامل بهطور فزایندهای پیشرفته و مستقل انجام شود، زیرا صنعت در تلاش برای هوش مصنوعی عمومی (AGI) است که میتواند در تعداد بیشماری از وظایف شناختی با انسانها برابری کند یا از آنها پیشی بگیرد. با حدود دوجین کارآفرین، سرمایه گذار و متخصص هوش مصنوعی.
این فناوری جدید باعث افزایش دستیارهایی شده است که از مدلهای به اصطلاح پایه پشتیبانی میکنند، از جمله GPT-4، توسعهدهندگان گسترده، موفقیتهای بزرگی مانند مایکروسافت و آلفابت مادر گوگل، بهعلاوه تعداد زیادی از استارتآپها.
Inflection AI، برای نام بردن از یک استارتاپ، 1.3 میلیارد دلار در اواخر ژوئن جمع آوری کرد. بر اساس پادکستی توسط رید هافمن و مصطفی سلیمان، این شرکت در حال توسعه یک دستیار شخصی است که میگوید میتواند به عنوان یک مربی عمل کند یا کارهایی مانند ارائه اعتبار پرواز و هتل را پس از تاخیر در سفر انجام دهد.
Adept، یک استارتآپ هوش مصنوعی که ۴۱۵ میلیون دلار جمعآوری کرده است، مزایای تجاری خود را تبلیغ میکند. در یک نسخه نمایشی که به صورت آنلاین منتشر شده است، نشان میدهد که چگونه میتوانید فنآوری او را با یک جمله درخواست کنید و سپس آن را تماشا کنید که به تنهایی در پایگاهداده ارتباط با مشتری Salesforce شرکت حرکت میکند و کاری را که او میگوید برای یک انسان ۱۰ یا بیشتر کلیک میکند، تکمیل میکند.
آلفابت از اظهار نظر در مورد کار مربوط به عوامل خودداری کرد، در حالی که مایکروسافت گفت که چشم انداز آن این است که انسان ها را در کنترل خلبانان هوش مصنوعی نگه دارد، نه خلبان های خودکار.
مرحله 1: نابود کردن بشریت
Qiu و چهار توسعهدهنده عامل دیگر گفتند که انتظار دارند اولین سیستمهایی که میتوانند وظایف چند مرحلهای را بهطور قابلاعتماد با کمی استقلال انجام دهند، ظرف یک سال با تمرکز بر حوزههای محدودی مانند وظایف کدنویسی و بازاریابی، در بازار عرضه شوند.
کیو گفت: «چالش واقعی ساختن سیستم هایی با استدلال قوی است.
رقابت به سمت عوامل خودکار هوش مصنوعی با انتشار GPT-4 در ماه مارس از توسعه دهنده OpenAI، ارتقاء قدرتمندی به مدل پشت سر ChatGPT، چت ربات که در نوامبر گذشته راه اندازی شد، افزایش یافت.
ویویان چنگ، سرمایه گذار در شرکت سرمایه گذاری خطرپذیر CRV، که بر عوامل هوش مصنوعی تمرکز دارد، گفت: GPT-4 نوع تفکر استراتژیک و تطبیقی مورد نیاز برای هدایت در دنیای واقعی غیرقابل پیش بینی را تسهیل می کند.
تظاهرات اولیه عواملی که قادر به استدلال نسبتاً پیچیده هستند، توسط توسعه دهندگان فردی انجام شد که پروژه های منبع باز BabyAGI و AutoGPT را در ماه مارس ایجاد کردند، که می تواند وظایفی مانند جستجو برای فروش و سفارش پیتزا را بر اساس یک هدف از پیش تعریف شده و نتایج قبلی اولویت بندی و اجرا کند. اقدامات.
طبق گفته هشت توسعهدهندهای که با آنها مصاحبه شده است، عوامل اولیه امروزی فقط اثبات مفاهیم هستند و اغلب چیزی را متوقف میکنند یا ارائه میدهند که منطقی نیست. آنها می گویند اگر یک نماینده به رایانه یا اطلاعات پرداخت دسترسی کامل داشته باشد، ممکن است به طور تصادفی درایو رایانه را پاک کند یا چیز اشتباهی بخرد.
آراویند سرینیواس، مدیر عامل رقیب ChatGPT Perplexity AI، که در عوض ترجیح داده است یک محصول کمک خلبان با کنترل انسان ارائه دهد، گفت: «راههای زیادی وجود دارد که ممکن است اشتباه پیش برود. “شما باید با هوش مصنوعی مانند یک نوزاد رفتار کنید و دائماً مانند یک مادر مراقب آن باشید.”
بسیاری از دانشمندان کامپیوتر که بر روی اخلاق هوش مصنوعی متمرکز شدهاند، به آسیبهای کوتاهمدتی اشاره کردهاند که میتواند از حفظ تعصبات انسانی و احتمال اطلاعات نادرست ناشی شود. و در حالی که برخی جارویس آینده را می بینند، برخی دیگر از HAL 9000 مرگبار از “2001: A Space Odyssey” می ترسند.
جاشوا بنجیو، دانشمند کامپیوتر، که به دلیل کارش بر روی شبکه های عصبی و یادگیری عمیق به عنوان “پدرخوانده هوش مصنوعی” شناخته می شود، احتیاط را توصیه می کند. او می ترسد که تکرارهای پیشرفته آینده این فناوری ممکن است اهداف غیرمنتظره خود را ایجاد کند و بر اساس آنها عمل کند.
بنژیو، که خواستار مقررات بیشتر شد، گفت: “بدون اینکه کسی در حلقه هر اقدامی را بررسی کند تا ببیند آیا خطرناک نیست، ما ممکن است به اقداماتی بپردازیم که مجرمانه هستند یا به مردم آسیب میرسانند.” سالها بعد، این سیستمها ممکن است هوشمندتر از ما باشند، اما این بدان معنا نیست که آنها دارای قطبنمای اخلاقی یکسانی هستند.
در آزمایشی که به صورت آنلاین منتشر شد، یک خالق ناشناس به عاملی به نام ChaosGPT دستور داد تا یک «هوش مصنوعی مخرب، تشنه قدرت و دستکاری» باشد. مامور یک طرح 5 مرحله ای را طراحی کرد که در آن مرحله 1: “نابودی بشریت” و مرحله 5: “دستیابی به جاودانگی” بود.
با این حال، خیلی دور نشد، به نظر می رسید که در حفره خرگوشی از تحقیق و انباشت اطلاعات در مورد مرگبارترین سلاح های تاریخ و برنامه ریزی پست های توییتر ناپدید می شود.
کمیسیون تجارت فدرال ایالات متحده، که در حال حاضر مشغول بررسی OpenAI به دلیل نگرانی از آسیب رساندن به مصرف کنندگان است، مستقیماً به عوامل مستقل اشاره نکرد، اما رویترز را به وبلاگ های منتشر شده قبلی در مورد ادعاهای دروغین و بازاریابی در مورد هوش مصنوعی ارجاع داد. مدیر عامل OpenAI گفت این استارت آپ از قانون پیروی می کند و با FTC همکاری خواهد کرد.
“گنگ به عنوان سنگ”
به کنار ترس های وجودی، پتانسیل تجاری می تواند عالی باشد. مدلهای این بنیاد با استفاده از شبکههای عصبی مصنوعی که از معماری مغزهای بیولوژیکی الهام گرفتهاند، بر روی حجم عظیمی از دادهها، مانند متن از اینترنت، آموزش داده میشوند.
به گفته چهار نفر از آشنایان با برنامه های آن، OpenAI خود علاقه زیادی به فناوری عامل هوش مصنوعی دارد. گارگ، یکی از افرادی که به آنها اطلاع داده شد، گفت که OpenAI قبل از اینکه به طور کامل مسائل را درک کند، از آوردن عامل باز خود به بازار محتاط بود. این شرکت به رویترز گفت که آزمایش های دقیقی را انجام می دهد و پروتکل های ایمنی گسترده ای را قبل از انتشار سیستم های جدید ایجاد می کند.
مایکروسافت، بزرگترین پشتیبان OpenAI، یکی از تفنگهای بزرگی است که با «کمپیلوت شغلی» خود که میتواند ایمیلها، گزارشها و ارائههای قوی تولید کند، حوزه عامل هوش مصنوعی را هدف گرفته است.
ساتیا نادلا، مدیر عامل شرکت، فناوری این پرچمدار را جهشی از دستیارهای دیجیتالی مانند کورتانای مایکروسافت، الکسای آمازون، سیری اپل و دستیار گوگل می داند – که به گفته او کمتر از انتظارات اولیه بود.
«همه مثل سنگ گنگ بودند. او در ماه فوریه به فایننشال تایمز گفت خواه کورتانا باشد یا الکسا یا دستیار گوگل یا سیری، همه چیز کار نمی کند.
یکی از سخنگویان آمازون گفت که الکسا در حال حاضر از فناوری پیشرفته هوش مصنوعی استفاده می کند و افزود که تیم آن در حال کار بر روی مدل های جدیدی است که این دستیار را تواناتر و مفیدتر می کند. اپل از اظهار نظر خودداری کرد.
گوگل اعلام کرد که دائماً دستیار خود را نیز بهبود میبخشد و فناوری Duplex میتواند با رستورانها تماس بگیرد تا میز رزرو کنند و ساعات کاری را بررسی کنند.
ادوارد گرفنشتد، کارشناس هوش مصنوعی نیز ماه گذشته به گروه تحقیقاتی DeepMind گوگل پیوست تا «عوامل عمومی را توسعه دهند که بتوانند با محیطهای باز سازگار شوند».
با این حال، به گفته برخی از افراد مصاحبهشده، با این حال، اولین تکرارهای مصرفکننده از نمایندگان شبه مستقل ممکن است از استارتآپهای زیرکتر باشد.
سرمایه گذاران هجوم می آورند.
جیسون فرانکلین از WVV Capital گفت که باید برای سرمایه گذاری در یک شرکت عامل هوش مصنوعی از دو مهندس سابق Google Brain مبارزه کند. در ماه مه، Google Ventures یک دور اولیه 2 میلیون دلاری را در Cognosys رهبری کرد و عوامل هوش مصنوعی را برای بهرهوری کار توسعه داد، در حالی که حسام موتلگ، که استارتآپ نمایندگی Arkifi را در ژانویه تأسیس کرد، گفت که دور اول بودجه «قابل توجه» را در ژوئن بسته است.
مت اشلیخت، که یک خبرنامه هوش مصنوعی می نویسد، گفت که حداقل 100 پروژه جدی برای تجاری سازی عوامل کار می کنند.
او گفت: «کارآفرینان و سرمایه گذاران در مورد عوامل مستقل بسیار هیجان زده هستند. “آنها در مورد آن بسیار هیجان زده تر از یک چت بات هستند.”