مدیر عامل گوگل نسبت به عجله برای استقرار هوش مصنوعی بدون نظارت هشدار داد
مدیرعامل شرکت آلفابت و ساندار پیچای از گوگل در مصاحبه ای که یکشنبه پخش شد، گفت که تلاش برای پذیرش فناوری هوش مصنوعی باید به خوبی تنظیم شود تا از اثرات مضر احتمالی جلوگیری شود.
پیچای در مصاحبه ای با 60 Minutes در پاسخ به این سوال که چه چیزی او را در مورد هوش مصنوعی شب ها بیدار نگه می دارد، گفت: «ضرورت کار بر روی آن و اجرای آن به شیوه ای مفید است، اما در عین حال اگر به اشتباه اجرا شود می تواند بسیار مضر باشد».
گوگل مستقر در Mountain View در کالیفرنیا یکی از پیشروان در توسعه و پیاده سازی هوش مصنوعی در خدمات خود است. نرمافزارهایی مانند Google Lens و Google Photos به سیستمهای تشخیص تصویر این شرکت متکی هستند، در حالی که Google Assistant از تحقیقات پردازش زبان طبیعی که گوگل سالهاست انجام میدهد، سود میبرد. با این حال، سرعت پذیرش فناوری عمداً سنجیده و محتاطانه بوده است، در حالی که ChatGPT OpenAI رقابتی را برای پیشرفت ابزارهای هوش مصنوعی با کلیپ بسیار سریعتر باز کرده است.
پیچای گفت: ما هنوز همه پاسخ ها را نداریم و فناوری به سرعت در حال پیشرفت است. “پس این چیزی است که من را در شب بیدار نگه می دارد؟ کاملا.”
اکنون گوگل در تلاش است تا محصولات خود را با هوش مصنوعی مولد القا کند — نرم افزاری که می تواند متن، تصویر، موسیقی یا حتی ویدیو را بر اساس درخواست های کاربر ایجاد کند. ChatGPT و یکی دیگر از محصولات OpenAI، Dall-E، پتانسیل این فناوری را نشان دادهاند، و شرکتهای بیشماری از دره سیلیکون گرفته تا رهبران اینترنت چین اکنون درگیر ارائه پیشنهادات خود هستند. اریک اشمیت، مدیر عامل سابق گوگل، از شرکت های فناوری جهانی خواست تا گرد هم آیند و استانداردها و پادمان های مناسب را توسعه دهند و هشدار داد که هرگونه تاخیر در توسعه “فقط به نفع چین خواهد بود”.
مدیر عامل سابق گوگل توقف تحقیقات هوش مصنوعی به دلیل نگرانی های چین را رد کرد
علیرغم احساس فوریت در صنعت، پیچای به شرکتها هشدار داد که توسط پویاییهای رقابتی تحت تأثیر قرار نگیرند. و درس هایی از تجربه رویکرد مستقیم تر OpenAI و اولین ChatGPT پیدا می کند.
پیچای گفت: «یکی از نکاتی که آنها به آن اشاره کردند این است که شما نمی خواهید چنین فناوری را زمانی که بسیار بسیار قدرتمند است منتشر کنید، زیرا به جامعه زمان برای سازگاری نمی دهد. “من فکر می کنم این یک دیدگاه معقول است. من فکر میکنم افراد مسئولی وجود دارند که سعی میکنند بفهمند چگونه به این فناوری نزدیک شوند، همانطور که ما هستیم.»
یکی از خطرات هوش مصنوعی مولد که پیچای بر آن تاکید کرد، ویدیوهای به اصطلاح جعلی عمیق است که در آن افراد میتوانند اظهاراتی را به تصویر بکشند که واقعاً انجام ندادهاند. پیچای گفت که چنین مشکلاتی نیاز به مقررات را نشان می دهد.
وی گفت: ایجاد ویدیوهای جعلی عمیق که به جامعه آسیب می زند باید عواقبی داشته باشد. هرکسی که مدتی با هوش مصنوعی کار کرده است، میداند که این چیزی بسیار متفاوت و عمیق است که برای فکر کردن به نحوه سازگاری به قوانین اجتماعی نیاز داریم.»