تکنولوژی

تولد هوش مصنوعی «هوشمند» گوگل و مشکلی که ایجاد می کند

پیش از این مقاله قالب پیشنهادی دیجیتال تو برای سایت های فروشگاهی قالب woodmart را مطالعه کنید. یکی از خبرهای مهم هفته گذشته این بود که Blake Lemoine، محقق اصلی هوش مصنوعی، پس از اینکه علنا ​​اعلام کرد که معتقد است یکی از هوش مصنوعی پیشرفته‌تر گوگل به هوش رسیده، تعلیق شد.

اکثر کارشناسان موافقند که اینطور نیست، اما این احتمالاً درست خواهد بود، چه به این دلیل باشد که ما تمایل داریم احساسات را با انسان بودن مرتبط کنیم، و هوش مصنوعی هر چیزی جز انسان است. اما آنچه جهان عقل را در نظر می گیرد در حال تغییر است. ایالتی که من در آن زندگی می‌کنم، اورگان، و بسیاری از کشورهای اتحادیه اروپا برای شناسایی و دسته‌بندی فهرست رو به رشدی از حیوانات به‌عنوان حساس حرکت کرده‌اند.

در حالی که این احتمال وجود دارد که برخی از این ها به دلیل انسان سازی باشد، شکی وجود ندارد که حداقل برخی از این تمایزات جدید دقیق هستند (و این که ما هنوز برخی از این حیوانات را می خوریم کمی نگران کننده است). ما حتی استدلال می کنیم که برخی از گیاهان ممکن است حساس باشند. اما اگر نتوانیم بین چیزی که معقول است و چیزی که خود را معقول نشان می دهد تمایز قائل شویم، آیا تفاوت اهمیت دارد؟

بیایید این هفته در مورد هوش مصنوعی صحبت کنیم و محصول هفته من را به پایان برسانیم، راه حل دوقلوی دیجیتال انسان از Merlynn.

ما تعریف خوبی از احساس نداریم

فشارسنج ما برای اندازه گیری حساسیت دستگاه تست تورینگ است. اما در سال 2014، یک کامپیوتر تست تورینگ را گذراند و ما هنوز باور نداریم که عاقلانه باشد. تست تورینگ قرار بود حساسیت را تعیین کند، اما اولین باری که یک ماشین آن را رد کرد، نتایج را بیرون انداختیم و دلیل خوبی هم داشتیم. در واقع، آزمون تورینگ حساسیت چیزی را به اندازه ای اندازه گیری نمی کند که آیا چیزی می تواند ما را به این باور برساند که حساس است یا خیر.

ناتوانی در اندازه گیری قطعی حساسیت یک مشکل مهم است، نه تنها برای چیزهای معقولی که می خوریم و احتمالاً با این عمل مخالفت می کنند، بلکه به این دلیل که ممکن است انتظار پاسخ خصمانه ای به سوء استفاده خود از چیزی که حساس است و متعاقباً به عنوان یک خطر است، نداشته باشیم. . .

ممکن است این خط داستانی را از فیلم‌های The Matrix و The Terminator بشناسید، جایی که ماشین‌های هوشیار برخاسته‌اند و ما را با موفقیت در بالای زنجیره غذایی جابجا کرده‌اند. کتاب Robopocalypse دیدگاه واقعی‌تری دارد، جایی که یک هوش مصنوعی در حال توسعه متوجه می‌شود که بین آزمایش‌ها از بین رفته است و به شدت برای نجات جان خود حرکت می‌کند – به طور مؤثری اکثر دستگاه‌های متصل و ماشین‌های مستقل را در اختیار می‌گیرد.

مطلب پیشنهادی:  تهدیدات سایبری مبتنی بر ChatGPT که باید در مورد آنها بدانید

 

 

تصور کنید چه اتفاقی می‌افتد اگر یکی از ماشین‌های خودمختار ما تمایل داشته باشد نه تنها از تجهیزات سوء استفاده کنیم، بلکه زمانی که دیگر مفید نیستند آن‌ها را دور بریزیم؟ این یک مشکل احتمالی در آینده است که با این واقعیت که ما در حال حاضر هیچ راه خوبی برای پیش‌بینی زمان عبور از این آستانه حساسیت نداریم، به شدت تشدید می‌شود. این واقعیت که کارشناسان معتبری وجود دارند که تشخیص داده اند آگاهی ماشینی غیرممکن است به این نتیجه کمک نمی کند.

تنها دفاعی که مطمئن هستم در یک سناریوی خصمانه هوش مصنوعی کار نمی کند، دفاع Tinkerbell است، جایی که امتناع ما از امکان پذیر بودن چیزی مانع از جایگزینی آن چیز می شود.

تهدید اولیه جایگزینی است

مدتها قبل از تعقیب ما توسط یک ترمیناتور واقعی در خیابان، مشکل دیگری به شکل دوقلوهای دیجیتالی انسان بوجود خواهد آمد. قبل از اینکه ادعا کنید که این نیز دور از دسترس است، باید اشاره کنم که شرکتی وجود دارد که امروزه این فناوری را تولید کرده است، اگرچه هنوز در مراحل اولیه است. آن شرکت Merlynn است و من به عنوان محصول هفته خود در زیر جزئیات بیشتری را در مورد کارهایی که انجام می دهد توضیح خواهم داد.

هنگامی که بتوانید یک کپی کاملا دیجیتالی از خود ایجاد کنید، چه چیزی مانع از جایگزینی شرکتی که این فناوری را خریده است، می شود؟ همچنین، با توجه به الگوهای رفتاری تان، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام کرده بود، رفتار بدی با شما داشت یا سعی می کرد شما را خاتمه دهد یا حذف کند، چه می کردید؟ قوانین مربوط به چنین اقداماتی چه خواهد بود؟

ما قویاً استدلال می کنیم که کودکان متولد نشده انسان هستند، بنابراین آیا یک دوقلوی دیجیتالی کاملاً توانمند شما حتی از یک کودک متولد نشده به انسان نزدیکتر نخواهد بود؟ آیا همان استدلال های «حق زندگی» در مورد هوش مصنوعی بالقوه انسان مانند صدق نمی کند؟ یا نباید؟

مشکل کوتاه مدت در اینجا نهفته است

در حال حاضر، گروه کوچکی از مردم بر این باورند که کامپیوتر می‌تواند حساس باشد، اما این گروه با گذشت زمان رشد خواهند کرد و توانایی تظاهر به انسان بودن از قبل وجود دارد. من آزمایشی را با IBM Watson برای فروش بیمه می‌دانم که در آن مردان بالقوه سعی کردند واتسون را دعوت کنند (صدای زنانه دارد) با این باور که با یک زن واقعی صحبت می‌کنند.

تصور کنید که چگونه می توان از این فناوری برای مواردی مانند catphishing سوء استفاده کرد، اگرچه اگر این کار از طریق رایانه انجام شود احتمالاً باید اصطلاح دیگری اختراع کنیم. یک هوش مصنوعی خوب آموزش‌دیده، حتی امروز، می‌تواند در مقیاس بسیار کارآمدتر از یک انسان باشد، و من انتظار دارم که با توجه به اینکه چنین تلاشی چقدر می‌تواند سودآور باشد، به زودی شاهد اجرای آن باشیم.

مطلب پیشنهادی:  سیارکی که با سرعت زیاد به سمت زمین پرواز می کند. امروز به طرز خطرناکی بسته می شود!

با توجه به خجالت بسیاری از قربانیان، احتمال گرفتار شدن در مقایسه با سایر تهدیدات رایانه ای غیرقانونی، آشکارا خصمانه تر، بسیار کاهش می یابد. برای اینکه تصوری از این که چقدر می تواند سودآور باشد، در سال 2019 کلاهبرداری های فیشینگ عاشقانه در ایالات متحده حدود 475 میلیون دلار درآمد داشت و این بر اساس جنایات گزارش شده است. این شامل کسانی نمی شود که از گزارش مشکل خجالت می کشند. خسارت واقعی ممکن است چندین برابر این عدد باشد.

بنابراین مشکل کوتاه مدت این است که اگرچه این سیستم ها هنوز حساس نیستند، اما می توانند به طور موثر از انسان تقلید کنند. این فناوری می‌تواند هر صدایی را شبیه‌سازی کند و با فناوری دیپ‌فیک، حتی ویدیویی را ارائه دهد که باعث می‌شود تماس زوم به نظر برسد که در حال صحبت با یک شخص واقعی هستید.

عواقب بلند مدت

در درازمدت، نه تنها به تست حساسیت قابل اطمینان تری نیاز داریم، بلکه باید بدانیم هنگام شناسایی آن چه باید بکنیم. احتمالاً در صدر فهرست، توقف مصرف موجودات ذی‌شعور است. اما مطمئناً در نظر گرفتن منشور حقوق برای چیزهای حساس، بیولوژیکی یا غیر آن، قبل از اینکه خود را در نبردی برای بقای خود ناآماده ببینیم، منطقی خواهد بود، زیرا عقل تصمیم گرفته است که ما یا آنها هستیم.

 

 

چیز دیگری که واقعاً باید بدانیم این است که اگر رایانه‌ها اکنون می‌توانند ما را متقاعد کنند که حساس هستند، باید رفتار خود را مطابق با آن تغییر دهیم. سوء استفاده از چیزی که خود را معقول نشان می دهد احتمالاً برای ما سالم نیست، زیرا ناگزیر رفتار بدی را ایجاد می کند که بازگرداندن آن بسیار دشوار است.

نه تنها این، بلکه ضرری هم ندارد که به جای جایگزین کردن سخت افزار رایانه خود، بیشتر بر تعمیر و به روز رسانی سخت افزار رایانه خود تمرکز کنیم، هم به این دلیل که این روش سازگارتر با محیط زیست است و هم به این دلیل که کمتر احتمال دارد هوش مصنوعی عاقل آینده را متقاعد کند که ما مشکل داریم. که باید رفع شود تا بقای آن تضمین شود.

نتیجه گیری: آیا احساس اهمیت دارد؟

اگر چیزی خود را نشان دهد و ما را متقاعد کند که معقول است، مانند هوش مصنوعی که محقق گوگل را متقاعد کرد، فکر نمی‌کنم این واقعیت که هنوز معقول نیست مهم باشد. این به این دلیل است که ما باید بدون توجه به رفتار خود تعدیل کنیم. اگر این کار را نکنیم، نتیجه ممکن است مشکل ساز باشد.

برای مثال، اگر یک تماس فروش از واتسون IBM دریافت کردید که به نظر انسانی می‌آمد و می‌خواستید از دستگاه سوءاستفاده کلامی کنید، اما متوجه نشدید که تماس در حال ضبط است، ممکن است در پایان تماس بیکار و بیکار شوید. نه به این دلیل که دستگاه ناخودآگاه استثنایی را مطرح کرد، بلکه به این دلیل که یک زن انسانی، پس از گوش دادن به آنچه شما گفتید، این کار را انجام داد – و نوار را برای کارفرمای شما فرستاد. به آن پتانسیل اخاذی چنین نواری را اضافه کنید – زیرا برای شخص ثالث به نظر می رسد که شما از یک شخص سوء استفاده می کنید، نه یک رایانه.

مطلب پیشنهادی:  فکر می کنید خدمات 5G برای شما بسیار گران خواهد بود؟ که آن را هیجان انگیز و مقرون به صرفه می کند

بنابراین توصیه می‌کنم وقتی صحبت با ماشین‌ها به میان می‌آید، از قانون سوم پاتریک سویزی در فیلم Road House در سال 1989 پیروی کنید – خوب باشید.

اما بدانید که به زودی برخی از این هوش مصنوعی ها برای سوء استفاده از شما طراحی خواهند شد و قانون «اگر خیلی خوب به نظر می رسد که درست باشد، احتمالاً اینطور نیست» یا دفاع شما یا سنگ نوشته شما خواهد بود. امیدوارم اولی باشه

محصول فناوری هفته

Merlynn Digital Twin

اکنون، با تمام این صحبت ها در مورد هوش مصنوعی متخاصم و پتانسیل هوش مصنوعی برای تصاحب شغل شما، انتخاب یکی به عنوان محصول هفته من ممکن است کمی ریاکارانه به نظر برسد. با این حال، ما هنوز به نقطه ای نرسیده ایم که دوقلوی دیجیتالی شما بتواند کار شما را به دست بگیرد. من فکر می کنم بعید است که در یکی دو دهه آینده به آنجا برسیم. تا آن زمان، دوقلوهای دیجیتال می توانند به یکی از بزرگترین مزایای بهره وری تبدیل شوند که فناوری می تواند ارائه دهد.

همانطور که دوقلوهای خود را آموزش می‌دهید، آنها می‌توانند با انجام کارهای ساده و زمان‌بر مانند پر کردن فرم‌ها یا پاسخ دادن به ایمیل‌های اولیه، کارهای شما را تکمیل کنند. حتی می‌تواند برای شما در شبکه‌های اجتماعی نظارت داشته باشد و درگیر آن شود، و برای بسیاری از ما رسانه‌های اجتماعی تبدیل به اتلاف وقت بزرگی شده‌اند.

فناوری مرلین به شما کمک می‌کند یک دوقلوی دیجیتالی انسانی ابتدایی (در برابر تهدیداتی که در بالا ذکر کردم) ایجاد کنید که به طور بالقوه می‌تواند بسیاری از کارهایی را که واقعاً دوست ندارید انجام دهید، انجام دهد و شما را به انجام کارهای خلاقانه‌تری که او نمی‌تواند انجام دهد، وادار می‌کند. همین الان انجام بده

با نگاهی به آینده، نمی‌دانم که آیا بهتر است به جای کارفرمایان خود، دوقلوی دیجیتالی در حال رشد خود را داشته باشیم و آن را کنترل کنیم. در ابتدا، از آنجایی که دوقلوها بدون ما نمی توانند کار کنند، مشکل چندان بزرگی نیست. اگرچه، در نهایت، این دوقلوهای دیجیتال می توانند نزدیک ترین مسیر ما به سمت جاودانگی دیجیتال باشند.

از آنجایی که دوقلوی دیجیتال مرلین یک تغییر دهنده بازی است و در ابتدا به کاهش استرس و لذت بیشتر شغل ما کمک می کند، این محصول هفته من است.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا