تکنولوژی

مدیر عامل گوگل نسبت به عجله برای استقرار هوش مصنوعی بدون نظارت هشدار داد

مدیرعامل شرکت آلفابت و ساندار پیچای از گوگل در مصاحبه ای که یکشنبه پخش شد، گفت که تلاش برای پذیرش فناوری هوش مصنوعی باید به خوبی تنظیم شود تا از اثرات مضر احتمالی جلوگیری شود.

پیچای در مصاحبه ای با 60 Minutes در پاسخ به این سوال که چه چیزی او را در مورد هوش مصنوعی شب ها بیدار نگه می دارد، گفت: «ضرورت کار بر روی آن و اجرای آن به شیوه ای مفید است، اما در عین حال اگر به اشتباه اجرا شود می تواند بسیار مضر باشد».

گوگل مستقر در Mountain View در کالیفرنیا یکی از پیشروان در توسعه و پیاده سازی هوش مصنوعی در خدمات خود است. نرم‌افزارهایی مانند Google Lens و Google Photos به سیستم‌های تشخیص تصویر این شرکت متکی هستند، در حالی که Google Assistant از تحقیقات پردازش زبان طبیعی که گوگل سال‌هاست انجام می‌دهد، سود می‌برد. با این حال، سرعت پذیرش فناوری عمداً سنجیده و محتاطانه بوده است، در حالی که ChatGPT OpenAI رقابتی را برای پیشرفت ابزارهای هوش مصنوعی با کلیپ بسیار سریع‌تر باز کرده است.

پیچای گفت: ما هنوز همه پاسخ ها را نداریم و فناوری به سرعت در حال پیشرفت است. “پس این چیزی است که من را در شب بیدار نگه می دارد؟ کاملا.”

اکنون گوگل در تلاش است تا محصولات خود را با هوش مصنوعی مولد القا کند — نرم افزاری که می تواند متن، تصویر، موسیقی یا حتی ویدیو را بر اساس درخواست های کاربر ایجاد کند. ChatGPT و یکی دیگر از محصولات OpenAI، Dall-E، پتانسیل این فناوری را نشان داده‌اند، و شرکت‌های بی‌شماری از دره سیلیکون گرفته تا رهبران اینترنت چین اکنون درگیر ارائه پیشنهادات خود هستند. اریک اشمیت، مدیر عامل سابق گوگل، از شرکت های فناوری جهانی خواست تا گرد هم آیند و استانداردها و پادمان های مناسب را توسعه دهند و هشدار داد که هرگونه تاخیر در توسعه “فقط به نفع چین خواهد بود”.

مطلب پیشنهادی:  اپلیکیشن Anthropic iPhone AI طرح تجاری خود را برای رقابت با OpenAI اعلام کرد

مدیر عامل سابق گوگل توقف تحقیقات هوش مصنوعی به دلیل نگرانی های چین را رد کرد

علی‌رغم احساس فوریت در صنعت، پیچای به شرکت‌ها هشدار داد که توسط پویایی‌های رقابتی تحت تأثیر قرار نگیرند. و درس هایی از تجربه رویکرد مستقیم تر OpenAI و اولین ChatGPT پیدا می کند.

پیچای گفت: «یکی از نکاتی که آنها به آن اشاره کردند این است که شما نمی خواهید چنین فناوری را زمانی که بسیار بسیار قدرتمند است منتشر کنید، زیرا به جامعه زمان برای سازگاری نمی دهد. “من فکر می کنم این یک دیدگاه معقول است. من فکر می‌کنم افراد مسئولی وجود دارند که سعی می‌کنند بفهمند چگونه به این فناوری نزدیک شوند، همانطور که ما هستیم.»

یکی از خطرات هوش مصنوعی مولد که پیچای بر آن تاکید کرد، ویدیوهای به اصطلاح جعلی عمیق است که در آن افراد می‌توانند اظهاراتی را به تصویر بکشند که واقعاً انجام نداده‌اند. پیچای گفت که چنین مشکلاتی نیاز به مقررات را نشان می دهد.

وی گفت: ایجاد ویدیوهای جعلی عمیق که به جامعه آسیب می زند باید عواقبی داشته باشد. هرکسی که مدتی با هوش مصنوعی کار کرده است، می‌داند که این چیزی بسیار متفاوت و عمیق است که برای فکر کردن به نحوه سازگاری به قوانین اجتماعی نیاز داریم.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا