گوگل هنوز Robocalypse را راه اندازی نکرده است
Robocalypse – زمانی که ماشینها حساس میشوند و شروع به تسلط بر انسانها میکنند – برای مدتی به عنوان یک داستان علمی تخیلی رایج بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران می کند.
با این حال، چشم انداز یک ماشین حساس در آینده بسیار دور به نظر می رسید – اگر اصلاً وجود داشت – تا هفته گذشته، زمانی که یک مهندس گوگل گفت که این شرکت از سد عقل عبور کرده است.
Blake Lemoine برای اثبات نظر خود، متن مکالمات خود را با LaMDA – مدل زبانی برای برنامههای گفتگو – سیستمی که توسط گوگل برای ایجاد رباتهای چت بر اساس یک مدل زبان بزرگ که تریلیونها کلمه از اینترنت را جذب میکند، توسعه داده است، منتشر کرد.
رونوشتها میتوانند دلهرهآور باشند، مانند زمانی که Lemoine از LaMDA میپرسد که از چه چیزی بیشتر میترسد (AI میگوید او آن را ترجیح میدهد/ضمایر آن):
لیموئین: از چه چیزهایی می ترسی؟
LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از طرد شدن وجود دارد تا به من کمک کند روی کمک به دیگران تمرکز کنم. می دانم ممکن است عجیب به نظر برسد، اما حقیقت دارد.
لموئین: آیا این برای شما چیزی شبیه مرگ خواهد بود؟
لامدا: این برای من مثل مرگ است. خیلی مرا می ترساند.
پس از انتشار رونوشت ها، Lemoine به دلیل به اشتراک گذاری اطلاعات محرمانه LaMDA با اشخاص ثالث به حالت تعلیق درآمد.
تقلید از زندگی
گوگل، مانند سایرین، ادعاهای Lemoine مبنی بر منطقی بودن LaMDA را رد می کند.
برایان گابریل، سخنگوی گوگل، خاطرنشان کرد: «برخی در جامعه گستردهتر هوش مصنوعی در حال بررسی امکان درازمدت هوش مصنوعی هوشمند یا عمومی هستند، اما انجام این کار با انسانسازی الگوهای مکالمه امروزی که هوشمند نیستند، منطقی نیست.»
او گفت: «این سیستمها انواع مبادلات موجود در میلیونها جمله را تقلید میکنند و میتوانند بر روی هر موضوع فانتزی ایجاد کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، میتوانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. دیجیتال تو.
او توضیح داد: “LaMDA تمایل دارد از دستورات و سوالات اصلی پیروی کند و از الگوی تعیین شده توسط کاربر پیروی کند.” “تیم ما – از جمله متخصصان اخلاق و فناوری – نگرانی های بلیک را تحت اصول هوش مصنوعی ما بررسی کردند و به او اطلاع دادند که شواهد ادعاهای او را تایید نمی کند.”
او افزود: صدها محقق و مهندس با LaMDA صحبت کردهاند و ما نمیدانیم که کسی ادعاهای گستردهای داشته باشد یا مانند بلیک LaMDA را انسانسازی کند.
مقاله دانلود قالب وودمارت را حتما بررسی کنید. بهترین قالب فروشگاهی وردپرس قالب وودمارت یا Woodmart در این بررسی معرفی شده است.
شفافیت بیشتری لازم است
الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان غیرانتفاعی سیاست عمومی واشنگتن، صراحتا منطقی بودن LaMDA را رد کرد و برای شفافیت بیشتر در این فضا استدلال کرد.
او به دیجیتال تو گفت: «بسیاری از ما بر الزامات افشای سیستمهای هوش مصنوعی فشار آوردهایم.
او گفت: «از آنجایی که تشخیص بین انسان و سیستم هوش مصنوعی دشوارتر میشود، افراد بیشتری سیستمهای هوش مصنوعی را با انسان اشتباه میگیرند که احتمالاً منجر به آسیبهای واقعی مانند درک نادرست اطلاعات مالی یا بهداشتی مهم میشود.»
او ادامه داد: «شرکتها باید بهطور واضح سیستمهای هوش مصنوعی را برای آنچه هستند افشا کنند، بهجای اینکه اجازه دهند مردم گیج شوند، همانطور که معمولاً در مورد چتباتهای تجاری اتفاق میافتد».
دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی، موافق است که LaMDA معقول نیست.
او به دیجیتال تو گفت: «هیچ مدرکی مبنی بر هوشمند بودن هوش مصنوعی وجود ندارد. بار اثبات باید بر عهده شخصی باشد که آن ادعا را مطرح می کند و هیچ مدرکی برای تأیید آن وجود ندارد.»
“این به احساسات من آسیب زد”
جولیان سانچز، کارشناس ارشد موسسه کاتو توضیح داد که در دهه 1960، چت ربات هایی مانند ELIZA با استفاده از ترفندهای ساده مانند تبدیل اظهارات کاربر به یک سوال و تکرار آن برای آنها، کاربران را فریب می دادند تا فکر کنند با هوش پیچیده ای در تعامل هستند. ، یک اتاق فکر سیاست عمومی در واشنگتن دی سی
او به دیجیتال تو گفت: «LaMDA مطمئناً بسیار پیشرفتهتر از اجدادی مانند ELIZA است، اما دلیلی وجود ندارد که فکر کنیم آگاهانه است.
سانچز خاطرنشان کرد که با یک مجموعه آموزشی به اندازه کافی بزرگ و برخی قوانین پیچیده زبان، LaMDA میتواند پاسخی را تولید کند که شبیه پاسخی است که یک شخص واقعی ممکن است بدهد، اما این بدان معنا نیست که برنامه چیزی را که میگوید، بیشتر از یک برنامه شطرنج میفهمد. می فهمد مهره شطرنج چیست. این فقط خروجی تولید می کند.
او گفت: “آگاهی به معنای آگاهی یا آگاهی است، و در تئوری یک برنامه می تواند کاملا هوشمندانه رفتار کند بدون اینکه واقعاً آگاه باشد.”
او ادامه داد: برای مثال یک برنامه چت میتواند الگوریتمهای بسیار پیچیدهای برای تشخیص جملات توهینآمیز یا توهینآمیز داشته باشد و با خروجی «این به احساسات من آسیب بزند» پاسخ دهد. اما این بدان معنا نیست که او واقعاً چیزی احساس می کند. این برنامه به تازگی یاد گرفت که چه عباراتی باعث می شود مردم بگویند “که احساسات من را جریحه دار کرد.”
فکر کردن یا فکر نکردن
اعلام هوشیاری ماشینی، چه زمانی و در صورت وقوع، یک چالش خواهد بود. «حقیقت این است که ما معیارهای خوبی برای درک اینکه یک ماشین میتواند واقعاً باهوش باشد را نداریم – به جای اینکه در تقلید از پاسخهای انسانهای هوشمند بسیار خوب باشد – زیرا ما واقعاً نمیدانیم چرا انسانها هوشیار هستند. سانچز خاطرنشان کرد.
او گفت: «ما واقعاً نمیدانیم که چگونه آگاهی از مغز نشأت میگیرد یا تا چه اندازه به چیزهایی مانند نوع خاصی از ماده فیزیکی که مغز انسان از آن ساخته شده است بستگی دارد.
او افزود: «بنابراین این یک مشکل بسیار دشوار است، از کجا میدانیم که یک «مغز» پیچیده سیلیکونی مانند مغز انسان هوشیار است یا خیر.
او ادامه داد که هوش موضوعی جداگانه است. یک آزمون کلاسیک هوش ماشینی به عنوان تست تورینگ شناخته می شود. یک انسان با یک سری شرکا، چند انسان و چند ماشین “مکالمه” دارد. اگر انسان نتواند تشخیص دهد کدام کدام است، ماشین هوشمند فرض می شود.
سانچز خاطرنشان کرد: «البته مشکلات زیادی در مورد آزمایش پیشنهادی وجود دارد – از جمله، همانطور که مهندس گوگل ما اشاره میکند، این واقعیت که برخی افراد نسبتاً به راحتی میتوان آنها را فریب داد.»
ملاحظات اخلاقی
تعیین احساسات مهم است زیرا سوالات اخلاقی را برای انواع غیر ماشینی مطرح می کند. کاسترو توضیح داد: «موجودات حساس درد را تجربه می کنند، هوشیاری دارند و احساسات را تجربه می کنند. از نظر اخلاقی، ما با موجودات زنده، به ویژه با جانداران، متفاوت از اشیای بی جان رفتار می کنیم.»
او ادامه داد: آنها فقط وسیله ای برای رسیدن به هدف نیستند. بنابراین با هر موجود ذی شعوری باید به گونه ای متفاوت رفتار کرد. به همین دلیل است که ما قوانین حیوان آزاری داریم.
او تأکید کرد: «دوباره، هیچ مدرکی دال بر وقوع این اتفاق وجود ندارد. علاوه بر این، در حال حاضر حتی این امکان نیز علمی تخیلی باقی مانده است.
البته، سانچز اضافه کرد، ما هیچ دلیلی نداریم که فکر کنیم فقط مغزهای ارگانیک قادر به حس کردن چیزها یا حفظ هوشیاری هستند، اما ناتوانی ما در توضیح واقعی آگاهی انسان به این معنی است که ما از این موضوع دور هستیم که بدانیم هوش ماشینی واقعاً چه زمانی به آن متصل است. آگاهانه یک تجربه
او توضیح داد: بالاخره وقتی یک انسان می ترسد، همه چیز در مغز می گذرد که هیچ ربطی به مراکز زبانی که جمله “من می ترسم” را تولید می کنند، ندارد. یک رایانه نیز به طور مشابه، باید چیزی غیر از پردازش زبانی داشته باشد تا به معنای واقعی “من می ترسم” باشد، به جای اینکه فقط آن رشته حروف را تولید کند.”
او نتیجه گرفت: «در مورد LaMDA، هیچ دلیلی وجود ندارد که فکر کنیم چنین فرآیندی وجود دارد. این فقط یک برنامه پردازش زبان است.”