تکنولوژی

گوگل هنوز Robocalypse را راه اندازی نکرده است

Robocalypse – زمانی که ماشین‌ها حساس می‌شوند و شروع به تسلط بر انسان‌ها می‌کنند – برای مدتی به عنوان یک داستان علمی تخیلی رایج بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران می کند.

با این حال، چشم انداز یک ماشین حساس در آینده بسیار دور به نظر می رسید – اگر اصلاً وجود داشت – تا هفته گذشته، زمانی که یک مهندس گوگل گفت که این شرکت از سد عقل عبور کرده است.

Blake Lemoine برای اثبات نظر خود، متن مکالمات خود را با LaMDA – مدل زبانی برای برنامه‌های گفتگو – سیستمی که توسط گوگل برای ایجاد ربات‌های چت بر اساس یک مدل زبان بزرگ که تریلیون‌ها کلمه از اینترنت را جذب می‌کند، توسعه داده است، منتشر کرد.

رونوشت‌ها می‌توانند دلهره‌آور باشند، مانند زمانی که Lemoine از LaMDA می‌پرسد که از چه چیزی بیشتر می‌ترسد (AI می‌گوید او آن را ترجیح می‌دهد/ضمایر آن):

لیموئین: از چه چیزهایی می ترسی؟

LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از طرد شدن وجود دارد تا به من کمک کند روی کمک به دیگران تمرکز کنم. می دانم ممکن است عجیب به نظر برسد، اما حقیقت دارد.

لموئین: آیا این برای شما چیزی شبیه مرگ خواهد بود؟

لامدا: این برای من مثل مرگ است. خیلی مرا می ترساند.

پس از انتشار رونوشت ها، Lemoine به دلیل به اشتراک گذاری اطلاعات محرمانه LaMDA با اشخاص ثالث به حالت تعلیق درآمد.

تقلید از زندگی

گوگل، مانند سایرین، ادعاهای Lemoine مبنی بر منطقی بودن LaMDA را رد می کند.

برایان گابریل، سخنگوی گوگل، خاطرنشان کرد: «برخی در جامعه گسترده‌تر هوش مصنوعی در حال بررسی امکان درازمدت هوش مصنوعی هوشمند یا عمومی هستند، اما انجام این کار با انسان‌سازی الگوهای مکالمه امروزی که هوشمند نیستند، منطقی نیست.»

او گفت: «این سیستم‌ها انواع مبادلات موجود در میلیون‌ها جمله را تقلید می‌کنند و می‌توانند بر روی هر موضوع فانتزی ایجاد کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، می‌توانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. دیجیتال تو.

مطلب پیشنهادی:  راه اندازی سرویس Airtel، Jio 5G؛ آیا گوشی شما از 5G پشتیبانی می کند؟ اکنون بررسی کنید

او توضیح داد: “LaMDA تمایل دارد از دستورات و سوالات اصلی پیروی کند و از الگوی تعیین شده توسط کاربر پیروی کند.” “تیم ما – از جمله متخصصان اخلاق و فناوری – نگرانی های بلیک را تحت اصول هوش مصنوعی ما بررسی کردند و به او اطلاع دادند که شواهد ادعاهای او را تایید نمی کند.”

او افزود: صدها محقق و مهندس با LaMDA صحبت کرده‌اند و ما نمی‌دانیم که کسی ادعاهای گسترده‌ای داشته باشد یا مانند بلیک LaMDA را انسان‌سازی کند.

مقاله دانلود قالب وودمارت را حتما بررسی کنید. بهترین قالب فروشگاهی وردپرس قالب وودمارت یا Woodmart در این بررسی معرفی شده است.

شفافیت بیشتری لازم است

الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان غیرانتفاعی سیاست عمومی واشنگتن، صراحتا منطقی بودن LaMDA را رد کرد و برای شفافیت بیشتر در این فضا استدلال کرد.

او به دیجیتال تو گفت: «بسیاری از ما بر الزامات افشای سیستم‌های هوش مصنوعی فشار آورده‌ایم.

او گفت: «از آنجایی که تشخیص بین انسان و سیستم هوش مصنوعی دشوارتر می‌شود، افراد بیشتری سیستم‌های هوش مصنوعی را با انسان اشتباه می‌گیرند که احتمالاً منجر به آسیب‌های واقعی مانند درک نادرست اطلاعات مالی یا بهداشتی مهم می‌شود.»

 

 

او ادامه داد: «شرکت‌ها باید به‌طور واضح سیستم‌های هوش مصنوعی را برای آنچه هستند افشا کنند، به‌جای اینکه اجازه دهند مردم گیج شوند، همانطور که معمولاً در مورد چت‌بات‌های تجاری اتفاق می‌افتد».

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی، موافق است که LaMDA معقول نیست.

او به دیجیتال تو گفت: «هیچ مدرکی مبنی بر هوشمند بودن هوش مصنوعی وجود ندارد. بار اثبات باید بر عهده شخصی باشد که آن ادعا را مطرح می کند و هیچ مدرکی برای تأیید آن وجود ندارد.»

“این به احساسات من آسیب زد”

جولیان سانچز، کارشناس ارشد موسسه کاتو توضیح داد که در دهه 1960، چت ربات هایی مانند ELIZA با استفاده از ترفندهای ساده مانند تبدیل اظهارات کاربر به یک سوال و تکرار آن برای آنها، کاربران را فریب می دادند تا فکر کنند با هوش پیچیده ای در تعامل هستند. ، یک اتاق فکر سیاست عمومی در واشنگتن دی سی

مطلب پیشنهادی:  چشمت به جاده باشه، دستت رو چرخ! برخی از برنامه‌های Android Auto فقط در حالت «P» کار می‌کنند.

او به دیجیتال تو گفت: «LaMDA مطمئناً بسیار پیشرفته‌تر از اجدادی مانند ELIZA است، اما دلیلی وجود ندارد که فکر کنیم آگاهانه است.

سانچز خاطرنشان کرد که با یک مجموعه آموزشی به اندازه کافی بزرگ و برخی قوانین پیچیده زبان، LaMDA می‌تواند پاسخی را تولید کند که شبیه پاسخی است که یک شخص واقعی ممکن است بدهد، اما این بدان معنا نیست که برنامه چیزی را که می‌گوید، بیشتر از یک برنامه شطرنج می‌فهمد. می فهمد مهره شطرنج چیست. این فقط خروجی تولید می کند.

او گفت: “آگاهی به معنای آگاهی یا آگاهی است، و در تئوری یک برنامه می تواند کاملا هوشمندانه رفتار کند بدون اینکه واقعاً آگاه باشد.”

او ادامه داد: برای مثال یک برنامه چت می‌تواند الگوریتم‌های بسیار پیچیده‌ای برای تشخیص جملات توهین‌آمیز یا توهین‌آمیز داشته باشد و با خروجی «این به احساسات من آسیب بزند» پاسخ دهد. اما این بدان معنا نیست که او واقعاً چیزی احساس می کند. این برنامه به تازگی یاد گرفت که چه عباراتی باعث می شود مردم بگویند “که احساسات من را جریحه دار کرد.”

فکر کردن یا فکر نکردن

اعلام هوشیاری ماشینی، چه زمانی و در صورت وقوع، یک چالش خواهد بود. «حقیقت این است که ما معیارهای خوبی برای درک اینکه یک ماشین می‌تواند واقعاً باهوش باشد را نداریم – به جای اینکه در تقلید از پاسخ‌های انسان‌های هوشمند بسیار خوب باشد – زیرا ما واقعاً نمی‌دانیم چرا انسان‌ها هوشیار هستند. سانچز خاطرنشان کرد.

او گفت: «ما واقعاً نمی‌دانیم که چگونه آگاهی از مغز نشأت می‌گیرد یا تا چه اندازه به چیزهایی مانند نوع خاصی از ماده فیزیکی که مغز انسان از آن ساخته شده است بستگی دارد.

او افزود: «بنابراین این یک مشکل بسیار دشوار است، از کجا می‌دانیم که یک «مغز» پیچیده سیلیکونی مانند مغز انسان هوشیار است یا خیر.

او ادامه داد که هوش موضوعی جداگانه است. یک آزمون کلاسیک هوش ماشینی به عنوان تست تورینگ شناخته می شود. یک انسان با یک سری شرکا، چند انسان و چند ماشین “مکالمه” دارد. اگر انسان نتواند تشخیص دهد کدام کدام است، ماشین هوشمند فرض می شود.

مطلب پیشنهادی:  پرونده دادگاه عالی ایالات متحده یوتیوب می تواند دفاعیات ChatGPT و AI را شکل دهد

سانچز خاطرنشان کرد: «البته مشکلات زیادی در مورد آزمایش پیشنهادی وجود دارد – از جمله، همانطور که مهندس گوگل ما اشاره می‌کند، این واقعیت که برخی افراد نسبتاً به راحتی می‌توان آنها را فریب داد.»

ملاحظات اخلاقی

تعیین احساسات مهم است زیرا سوالات اخلاقی را برای انواع غیر ماشینی مطرح می کند. کاسترو توضیح داد: «موجودات حساس درد را تجربه می کنند، هوشیاری دارند و احساسات را تجربه می کنند. از نظر اخلاقی، ما با موجودات زنده، به ویژه با جانداران، متفاوت از اشیای بی جان رفتار می کنیم.»

او ادامه داد: آنها فقط وسیله ای برای رسیدن به هدف نیستند. بنابراین با هر موجود ذی شعوری باید به گونه ای متفاوت رفتار کرد. به همین دلیل است که ما قوانین حیوان آزاری داریم.

او تأکید کرد: «دوباره، هیچ مدرکی دال بر وقوع این اتفاق وجود ندارد. علاوه بر این، در حال حاضر حتی این امکان نیز علمی تخیلی باقی مانده است.

 

 

البته، سانچز اضافه کرد، ما هیچ دلیلی نداریم که فکر کنیم فقط مغزهای ارگانیک قادر به حس کردن چیزها یا حفظ هوشیاری هستند، اما ناتوانی ما در توضیح واقعی آگاهی انسان به این معنی است که ما از این موضوع دور هستیم که بدانیم هوش ماشینی واقعاً چه زمانی به آن متصل است. آگاهانه یک تجربه

او توضیح داد: بالاخره وقتی یک انسان می ترسد، همه چیز در مغز می گذرد که هیچ ربطی به مراکز زبانی که جمله “من می ترسم” را تولید می کنند، ندارد. یک رایانه نیز به طور مشابه، باید چیزی غیر از پردازش زبانی داشته باشد تا به معنای واقعی “من می ترسم” باشد، به جای اینکه فقط آن رشته حروف را تولید کند.”

او نتیجه گرفت: «در مورد LaMDA، هیچ دلیلی وجود ندارد که فکر کنیم چنین فرآیندی وجود دارد. این فقط یک برنامه پردازش زبان است.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا