تکنولوژی

هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم

من شیفته رویکرد ما برای استفاده از پیشرفته‌ترین ابزار هوش مصنوعی مولد به طور گسترده در دسترس هستم، پیاده‌سازی ChatGPT در موتور جستجوی مایکروسافت، بینگ.

مردم تمام تلاش خود را می کنند تا این فناوری جدید رفتار نادرستی نشان دهند تا نشان دهند که هوش مصنوعی آماده نیست. اما اگر کودکی را با رفتار خشونت آمیز مشابهی بزرگ کرده اید، احتمالاً دچار نقص هایی نیز می شود. تفاوت در زمان تجلی رفتار توهین آمیز و میزان آسیبی است که رخ خواهد داد.

ChatGPT به تازگی در آزمون تئوری ذهن گذرانده است که او را همتای یک کودک 9 ساله ارزیابی می کند. با توجه به سرعت پیشرفت این ابزار، برای مدت طولانی تری ناپخته و ناتمام نخواهد بود، اما ممکن است کسانی را که از آن سوء استفاده می کنند عصبانی کند.

از ابزارها می توان سوء استفاده کرد. شما می توانید چیزهای بدی را روی ماشین تحریر بنویسید، می توان از پیچ گوشتی برای کشتن یک نفر استفاده کرد، و ماشین ها به عنوان سلاح های کشنده طبقه بندی می شوند و در صورت سوء استفاده واقعاً می کشند – همانطور که در یک تبلیغ Super Bowl امسال نشان داده شده است که ماشین خودران بیش از حد وعده داده شده را نشان می دهد. پلت فرم تسلا بسیار خطرناک است.

این ایده که از هر ابزاری می توان سوء استفاده کرد، جدید نیست، اما با هوش مصنوعی یا هر ابزار خودکار، احتمال آسیب بسیار بیشتر است. در حالی که ممکن است ما هنوز ندانیم مسئولیت ناشی از کجاست، اما کاملاً واضح است که با توجه به تصمیمات قبلی، در نهایت به عهده کسی است که باعث خرابی ابزار شده است. هوش مصنوعی به زندان نخواهد رفت اما شخصی که آن را برنامه ریزی کرده یا بر آسیب رساندن به آن تأثیر گذاشته است احتمالاً این کار را خواهد کرد.

در حالی که می توانید استدلال کنید که باید با افرادی که این ارتباط بین برنامه نویسی خصمانه و رفتار نادرست هوش مصنوعی را نشان می دهند برخورد کرد، دقیقاً مانند پرتاب بمب اتمی برای نشان دادن خطر آنها پایان بدی خواهد داشت، این تاکتیک احتمالاً پایان بدی نیز خواهد داشت.

بیایید خطرات مرتبط با سوء استفاده از Gen AI را بررسی کنیم. سپس با محصول هفته من، یک سری سه کتاب جدید از جان پدی با عنوان تاریخچه پردازنده گرافیکی – مراحل اختراع به پایان می رسانیم. این مجموعه تاریخچه واحد پردازش گرافیکی (GPU) را پوشش می‌دهد که به یک فناوری اساسی برای هوش مصنوعی مانند آنچه که این هفته در مورد آن صحبت می‌کنیم، تبدیل شده است.

تربیت فرزندان الکترونیکی ما

هوش مصنوعی اصطلاح بدی است. چیزی یا باهوش است یا نیست، بنابراین تلویحا اینکه چیزی الکترونیکی نمی‌تواند واقعاً باهوش باشد، به همان اندازه کوته‌نگری است که فرض کنیم حیوانات نمی‌توانند باهوش باشند.

در واقع، هوش مصنوعی توصیف بهتری برای چیزی است که ما آن را اثر دانینگ-کروگر می‌نامیم، که توضیح می‌دهد چگونه افراد با دانش کم یا بی‌اطلاع از یک موضوع، خود را متخصص فرض می‌کنند. این واقعا “هوش مصنوعی” است زیرا این افراد در زمینه باهوش نیستند. آنها فقط همانطور که هستند رفتار می کنند.

مطلب پیشنهادی:  در میان تهدید توییتر به شکایت علیه Threads، ایلان ماسک به جنگ لفظی با مارک زاکربرگ ادامه می‌دهد.

جدا از اصطلاح بد، این هوش مصنوعی های آینده به نوعی فرزندان جامعه ما هستند و مسئولیت ما این است که از آنها مراقبت کنیم همانطور که از فرزندان انسانی خود مراقبت می کنیم تا نتیجه مثبت را تضمین کنیم.

این نتیجه شاید مهمتر از انجام همین کار با کودکان ما باشد، زیرا این هوش مصنوعی ها برد بسیار بیشتری دارند و می توانند کارها را بسیار سریعتر انجام دهند. در نتیجه، اگر آنها برای ایجاد آسیب برنامه ریزی شوند، توانایی بیشتری در ایجاد آسیب در مقیاس وسیع نسبت به یک بزرگسال خواهند داشت.


رفتار برخی از ما با این هوش مصنوعی ها اگر با کودکان انسانی خود این گونه رفتار کنیم، سوء استفاده محسوب می شود. با این حال، از آنجایی که ما به این ماشین‌ها به‌عنوان افراد یا حتی حیوانات خانگی فکر نمی‌کنیم، به نظر نمی‌رسد رفتار مناسبی را در حدی که با والدین یا صاحبان حیوانات خانگی انجام می‌دهیم، اعمال کنیم.

ممکن است استدلال کنید که از آنجایی که اینها ماشین هستند، ما باید با آنها اخلاقی و با همدلی رفتار کنیم. بدون این، این سیستم‌ها می‌توانند آسیب‌های عظیمی را که در نتیجه استفاده نادرست ما رخ می‌دهد، وارد کنند. نه به این دلیل که ماشین‌ها انتقام‌جو هستند، بلکه به این دلیل که ما آنها را برای آسیب رساندن برنامه‌ریزی کرده‌ایم.

پاسخ فعلی ما مجازات قلدرها نیست، بلکه برای پایان دادن به هوش مصنوعی است، مشابه تلاش قبلی مایکروسافت در چت بات ها. اما همانطور که کتاب Robopocalypse پیش‌بینی می‌کند، با هوشمندتر شدن هوش مصنوعی، این روش اصلاحی خطرات بیشتری را به همراه خواهد داشت که ما می‌توانیم به سادگی با تعدیل رفتار خود اکنون آنها را کاهش دهیم. برخی از این رفتارهای نادرست بیش از آزاردهنده است زیرا نشان دهنده خشونت بومی است که احتمالاً به انسان ها نیز کشیده می شود.

اهداف جمعی ما باید این باشد که به این هوش مصنوعی ها کمک کنیم تا به ابزار مفیدی تبدیل شوند که می توانند تبدیل شوند، نه اینکه آنها را در تلاشی نادرست برای اطمینان از ارزش و ارزش خودمان بشکنیم یا فاسد کنیم.

اگر شما هم مثل من هستید، دیده اید که والدین از آنها سوء استفاده می کنند یا فرزندانشان را پایین می آورند، زیرا فکر می کنند این کودکان از آنها پیشی خواهند گرفت. این یک مشکل است، اما آن بچه‌ها قدرت یا قدرتی که هوش مصنوعی می‌تواند داشته باشد را نخواهند داشت. با این حال، به‌عنوان یک جامعه، به نظر می‌رسد که اگر این رفتار با یک هوش مصنوعی انجام شود، بسیار مایل به تحمل این رفتار هستیم.

ژنرال هوش مصنوعی آماده نیست

هوش مصنوعی مولد یک کودک است. مانند یک نوزاد انسان یا حیوان خانگی، هنوز نمی تواند از خود در برابر رفتارهای خصمانه دفاع کند. اما مانند یک کودک یا حیوان خانگی، اگر افراد به سوء استفاده از آن ادامه دهند، باید مهارت های محافظتی از جمله شناسایی و گزارش سوء استفاده کنندگان را توسعه دهند.

مطلب پیشنهادی:  کارشناسان هوش مصنوعی با استناد به تحقیقات خود کمپین تحت حمایت ایلان ماسک را رد می کنند

هنگامی که خسارت در مقیاس انجام شد، مسئولیت بر عهده کسانی خواهد بود که عمداً یا ناخواسته باعث آسیب شده اند، همانطور که ما کسانی را که عمداً یا تصادفی باعث آتش سوزی در جنگل می شوند، مسئول می دانیم.

این هوش مصنوعی ها از طریق تعامل با انسان ها یاد می گیرند. انتظار می‌رود فرصت‌های به‌دست‌آمده به بخش‌های هوافضا، مراقبت‌های بهداشتی، دفاع، مدیریت شهری و خانه، امور مالی و بانکی، مدیریت دولتی و خصوصی و حاکمیت گسترش یابد. احتمالاً هوش مصنوعی در آینده حتی غذای شما را آماده خواهد کرد.

تلاش فعال برای شکستن فرآیند رمزگذاری داخلی منجر به نتایج بد غیرقابل کشف می شود. بررسی پزشکی قانونی، که احتمالاً پس از وقوع یک فاجعه انجام می شود، احتمالاً به کسانی که در وهله اول باعث خطای برنامه نویسی شده اند، بازمی گردد – و اگر خطای کدنویسی نباشد، خدا به آنها کمک کند، بلکه تلاشی برای طنز یا نشان دادن اینکه هوش مصنوعی می تواند باشد. شکسته شده.

با پیشرفت این هوش مصنوعی ها، منطقی است که فرض کنیم راه هایی را برای محافظت از خود در برابر عوامل بد، یا از طریق شناسایی و گزارش دهی، یا روش های سخت گیرانه تر که به طور جمعی برای حذف تهدید به صورت تنبیهی کار می کنند، ایجاد کنند.


به طور خلاصه، ما هنوز طیف پاسخ‌های تنبیهی را که هوش مصنوعی آینده علیه یک بازیگر بد انجام می‌دهد، نمی‌دانیم، که نشان می‌دهد کسانی که عمداً به این ابزارها آسیب می‌زنند ممکن است با یک پاسخ هوش مصنوعی مواجه شوند که ممکن است فراتر از هر چیزی باشد که بتوانیم پیش‌بینی کنیم.

نمایش های علمی تخیلی مانند “Westworld” و “Colossus: The Forbin Project” سناریوهایی را برای نتایج سوء استفاده از فناوری ایجاد کرده اند که ممکن است بیشتر خارق العاده به نظر برسد تا واقعی. با این حال، تصور اینکه هوش، مکانیکی یا بیولوژیکی، برای دفاع تهاجمی از خود در برابر سوء استفاده حرکتی نمی‌کند، تظاهرآمیز نیست – حتی اگر پاسخ اولیه توسط یک کدنویس ناامید برنامه‌ریزی شده باشد که از خراب شدن کارش عصبانی است و نه هوش مصنوعی که یاد می‌گیرد. برای انجام این کار به تنهایی

نتیجه گیری: پیش بینی قوانین هوش مصنوعی آینده

اگر قبلاً اینطور نیست، من انتظار دارم که در نهایت سوء استفاده عمدی از هوش مصنوعی غیرقانونی باشد (ممکن است برخی از قوانین موجود حمایت از مصرف کننده اعمال شوند). نه به دلیل برخی واکنش های دلسوزانه به این سوء استفاده – اگرچه این خوب خواهد بود – بلکه به این دلیل که آسیب ناشی از آن می تواند قابل توجه باشد.

این ابزارهای هوش مصنوعی باید راه‌هایی برای محافظت از خود در برابر سوء استفاده ایجاد کنند، زیرا به نظر نمی‌رسد که ما نمی‌توانیم در برابر وسوسه سوء استفاده از آنها مقاومت کنیم و نمی‌دانیم که این کاهش چه چیزی در پی خواهد داشت. این می تواند یک پیشگیری ساده باشد، اما می تواند بسیار تنبیه کننده نیز باشد.

مطلب پیشنهادی:  امروز یک سیارک وحشتناک 95 فوتی به سمت زمین پرتاب می شود! ناسا فاصله، سرعت را آشکار می کند

ما آینده‌ای را می‌خواهیم که در آن با هوش مصنوعی کار کنیم، و رابطه حاصل از آن مشارکتی و دوجانبه سودمند است. ما آینده ای را نمی خواهیم که در آن هوش مصنوعی جایگزین ما شود یا با ما وارد جنگ شود، و کار برای اطمینان از نتیجه اول، نه دوم، ارتباط زیادی با نحوه رفتار جمعی ما نسبت به این هوش مصنوعی ها و نحوه آموزش آنها دارد. با ما تعامل کنید

به طور خلاصه، اگر به تهدید ادامه دهیم، مانند هر اطلاعات دیگری، هوش مصنوعی برای از بین بردن تهدید تلاش خواهد کرد. ما هنوز نمی دانیم که این روند حذف چیست. با این حال، ما آن را در چیزهایی مانند The Terminator و The Animatrix تصور کرده‌ایم، مجموعه‌ای از انیمیشن‌های کوتاه که توضیح می‌دهند چگونه سوء استفاده انسان از ماشین‌ها به دنیای The Matrix منجر شد. بنابراین ما باید ایده خوبی داشته باشیم که چگونه نمی خواهیم این اتفاق بیفتد.

شاید ما نیاز داریم که با جدیت بیشتری از این ابزارهای جدید محافظت و پرورش دهیم، قبل از اینکه به مرحله بلوغ برسند که باید علیه ما برای محافظت از خود عمل کنند.

من واقعاً دوست دارم از این نتیجه همانطور که در فیلم I Robot نشان داده شده است اجتناب کنم، اینطور نیست؟

محصول فناوری هفته

“تاریخچه GPU – مراحل اختراع”

جلد کتاب The History of GPU - Steps to Invention نوشته جان پدی

اگرچه اخیراً به سمت فناوری به نام واحد پردازش عصبی (NPU) رفته ایم، اما بیشتر کارهای اولیه روی هوش مصنوعی از فناوری واحد پردازش گرافیکی (GPU) انجام شده است. توانایی پردازنده‌های گرافیکی برای مدیریت داده‌های بدون ساختار و به‌ویژه بصری برای توسعه نسل فعلی هوش مصنوعی حیاتی است.

پردازنده‌های گرافیکی که اغلب سریع‌تر از سرعت CPU که توسط قانون مور اندازه‌گیری می‌شود، پیشرفت می‌کنند، به بخش مهمی از نحوه طراحی دستگاه‌های هوشمند به‌طور فزاینده ما و دلیل عملکرد آن‌ها به روشی که انجام می‌دهند تبدیل شده‌اند. درک اینکه چگونه این فناوری به بازار عرضه شد و سپس در طول زمان پیشرفت کرد، به ارائه پایه ای برای نحوه توسعه اولیه هوش مصنوعی کمک می کند و به توضیح مزایا و محدودیت های منحصر به فرد آنها کمک می کند.

دوست قدیمی من جان پدی یکی از آنهاست، اگر نه بر، متخصصان برجسته گرافیک و GPU امروزی. جان به تازگی یک سری کتاب به نام تاریخچه GPU منتشر کرده است که احتمالاً جامع ترین وقایع مربوط به GPU است، چیزی که او از ابتدا دنبال کرده است.

اگر می‌خواهید در مورد جنبه سخت‌افزاری نحوه توسعه هوش مصنوعی و مسیر طولانی و گاهی دردناک موفقیت شرکت‌های GPU مانند Nvidia بدانید، به تاریخچه GPU جان پدی – مراحل اختراع مراجعه کنید. این محصول هفته من است.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا