هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم
من شیفته رویکرد ما برای استفاده از پیشرفتهترین ابزار هوش مصنوعی مولد به طور گسترده در دسترس هستم، پیادهسازی ChatGPT در موتور جستجوی مایکروسافت، بینگ.
مردم تمام تلاش خود را می کنند تا این فناوری جدید رفتار نادرستی نشان دهند تا نشان دهند که هوش مصنوعی آماده نیست. اما اگر کودکی را با رفتار خشونت آمیز مشابهی بزرگ کرده اید، احتمالاً دچار نقص هایی نیز می شود. تفاوت در زمان تجلی رفتار توهین آمیز و میزان آسیبی است که رخ خواهد داد.
ChatGPT به تازگی در آزمون تئوری ذهن گذرانده است که او را همتای یک کودک 9 ساله ارزیابی می کند. با توجه به سرعت پیشرفت این ابزار، برای مدت طولانی تری ناپخته و ناتمام نخواهد بود، اما ممکن است کسانی را که از آن سوء استفاده می کنند عصبانی کند.
از ابزارها می توان سوء استفاده کرد. شما می توانید چیزهای بدی را روی ماشین تحریر بنویسید، می توان از پیچ گوشتی برای کشتن یک نفر استفاده کرد، و ماشین ها به عنوان سلاح های کشنده طبقه بندی می شوند و در صورت سوء استفاده واقعاً می کشند – همانطور که در یک تبلیغ Super Bowl امسال نشان داده شده است که ماشین خودران بیش از حد وعده داده شده را نشان می دهد. پلت فرم تسلا بسیار خطرناک است.
این ایده که از هر ابزاری می توان سوء استفاده کرد، جدید نیست، اما با هوش مصنوعی یا هر ابزار خودکار، احتمال آسیب بسیار بیشتر است. در حالی که ممکن است ما هنوز ندانیم مسئولیت ناشی از کجاست، اما کاملاً واضح است که با توجه به تصمیمات قبلی، در نهایت به عهده کسی است که باعث خرابی ابزار شده است. هوش مصنوعی به زندان نخواهد رفت اما شخصی که آن را برنامه ریزی کرده یا بر آسیب رساندن به آن تأثیر گذاشته است احتمالاً این کار را خواهد کرد.
در حالی که می توانید استدلال کنید که باید با افرادی که این ارتباط بین برنامه نویسی خصمانه و رفتار نادرست هوش مصنوعی را نشان می دهند برخورد کرد، دقیقاً مانند پرتاب بمب اتمی برای نشان دادن خطر آنها پایان بدی خواهد داشت، این تاکتیک احتمالاً پایان بدی نیز خواهد داشت.
بیایید خطرات مرتبط با سوء استفاده از Gen AI را بررسی کنیم. سپس با محصول هفته من، یک سری سه کتاب جدید از جان پدی با عنوان تاریخچه پردازنده گرافیکی – مراحل اختراع به پایان می رسانیم. این مجموعه تاریخچه واحد پردازش گرافیکی (GPU) را پوشش میدهد که به یک فناوری اساسی برای هوش مصنوعی مانند آنچه که این هفته در مورد آن صحبت میکنیم، تبدیل شده است.
تربیت فرزندان الکترونیکی ما
هوش مصنوعی اصطلاح بدی است. چیزی یا باهوش است یا نیست، بنابراین تلویحا اینکه چیزی الکترونیکی نمیتواند واقعاً باهوش باشد، به همان اندازه کوتهنگری است که فرض کنیم حیوانات نمیتوانند باهوش باشند.
در واقع، هوش مصنوعی توصیف بهتری برای چیزی است که ما آن را اثر دانینگ-کروگر مینامیم، که توضیح میدهد چگونه افراد با دانش کم یا بیاطلاع از یک موضوع، خود را متخصص فرض میکنند. این واقعا “هوش مصنوعی” است زیرا این افراد در زمینه باهوش نیستند. آنها فقط همانطور که هستند رفتار می کنند.
جدا از اصطلاح بد، این هوش مصنوعی های آینده به نوعی فرزندان جامعه ما هستند و مسئولیت ما این است که از آنها مراقبت کنیم همانطور که از فرزندان انسانی خود مراقبت می کنیم تا نتیجه مثبت را تضمین کنیم.
این نتیجه شاید مهمتر از انجام همین کار با کودکان ما باشد، زیرا این هوش مصنوعی ها برد بسیار بیشتری دارند و می توانند کارها را بسیار سریعتر انجام دهند. در نتیجه، اگر آنها برای ایجاد آسیب برنامه ریزی شوند، توانایی بیشتری در ایجاد آسیب در مقیاس وسیع نسبت به یک بزرگسال خواهند داشت.
رفتار برخی از ما با این هوش مصنوعی ها اگر با کودکان انسانی خود این گونه رفتار کنیم، سوء استفاده محسوب می شود. با این حال، از آنجایی که ما به این ماشینها بهعنوان افراد یا حتی حیوانات خانگی فکر نمیکنیم، به نظر نمیرسد رفتار مناسبی را در حدی که با والدین یا صاحبان حیوانات خانگی انجام میدهیم، اعمال کنیم.
ممکن است استدلال کنید که از آنجایی که اینها ماشین هستند، ما باید با آنها اخلاقی و با همدلی رفتار کنیم. بدون این، این سیستمها میتوانند آسیبهای عظیمی را که در نتیجه استفاده نادرست ما رخ میدهد، وارد کنند. نه به این دلیل که ماشینها انتقامجو هستند، بلکه به این دلیل که ما آنها را برای آسیب رساندن برنامهریزی کردهایم.
پاسخ فعلی ما مجازات قلدرها نیست، بلکه برای پایان دادن به هوش مصنوعی است، مشابه تلاش قبلی مایکروسافت در چت بات ها. اما همانطور که کتاب Robopocalypse پیشبینی میکند، با هوشمندتر شدن هوش مصنوعی، این روش اصلاحی خطرات بیشتری را به همراه خواهد داشت که ما میتوانیم به سادگی با تعدیل رفتار خود اکنون آنها را کاهش دهیم. برخی از این رفتارهای نادرست بیش از آزاردهنده است زیرا نشان دهنده خشونت بومی است که احتمالاً به انسان ها نیز کشیده می شود.
اهداف جمعی ما باید این باشد که به این هوش مصنوعی ها کمک کنیم تا به ابزار مفیدی تبدیل شوند که می توانند تبدیل شوند، نه اینکه آنها را در تلاشی نادرست برای اطمینان از ارزش و ارزش خودمان بشکنیم یا فاسد کنیم.
اگر شما هم مثل من هستید، دیده اید که والدین از آنها سوء استفاده می کنند یا فرزندانشان را پایین می آورند، زیرا فکر می کنند این کودکان از آنها پیشی خواهند گرفت. این یک مشکل است، اما آن بچهها قدرت یا قدرتی که هوش مصنوعی میتواند داشته باشد را نخواهند داشت. با این حال، بهعنوان یک جامعه، به نظر میرسد که اگر این رفتار با یک هوش مصنوعی انجام شود، بسیار مایل به تحمل این رفتار هستیم.
ژنرال هوش مصنوعی آماده نیست
هوش مصنوعی مولد یک کودک است. مانند یک نوزاد انسان یا حیوان خانگی، هنوز نمی تواند از خود در برابر رفتارهای خصمانه دفاع کند. اما مانند یک کودک یا حیوان خانگی، اگر افراد به سوء استفاده از آن ادامه دهند، باید مهارت های محافظتی از جمله شناسایی و گزارش سوء استفاده کنندگان را توسعه دهند.
هنگامی که خسارت در مقیاس انجام شد، مسئولیت بر عهده کسانی خواهد بود که عمداً یا ناخواسته باعث آسیب شده اند، همانطور که ما کسانی را که عمداً یا تصادفی باعث آتش سوزی در جنگل می شوند، مسئول می دانیم.
این هوش مصنوعی ها از طریق تعامل با انسان ها یاد می گیرند. انتظار میرود فرصتهای بهدستآمده به بخشهای هوافضا، مراقبتهای بهداشتی، دفاع، مدیریت شهری و خانه، امور مالی و بانکی، مدیریت دولتی و خصوصی و حاکمیت گسترش یابد. احتمالاً هوش مصنوعی در آینده حتی غذای شما را آماده خواهد کرد.
تلاش فعال برای شکستن فرآیند رمزگذاری داخلی منجر به نتایج بد غیرقابل کشف می شود. بررسی پزشکی قانونی، که احتمالاً پس از وقوع یک فاجعه انجام می شود، احتمالاً به کسانی که در وهله اول باعث خطای برنامه نویسی شده اند، بازمی گردد – و اگر خطای کدنویسی نباشد، خدا به آنها کمک کند، بلکه تلاشی برای طنز یا نشان دادن اینکه هوش مصنوعی می تواند باشد. شکسته شده.
با پیشرفت این هوش مصنوعی ها، منطقی است که فرض کنیم راه هایی را برای محافظت از خود در برابر عوامل بد، یا از طریق شناسایی و گزارش دهی، یا روش های سخت گیرانه تر که به طور جمعی برای حذف تهدید به صورت تنبیهی کار می کنند، ایجاد کنند.
به طور خلاصه، ما هنوز طیف پاسخهای تنبیهی را که هوش مصنوعی آینده علیه یک بازیگر بد انجام میدهد، نمیدانیم، که نشان میدهد کسانی که عمداً به این ابزارها آسیب میزنند ممکن است با یک پاسخ هوش مصنوعی مواجه شوند که ممکن است فراتر از هر چیزی باشد که بتوانیم پیشبینی کنیم.
نمایش های علمی تخیلی مانند “Westworld” و “Colossus: The Forbin Project” سناریوهایی را برای نتایج سوء استفاده از فناوری ایجاد کرده اند که ممکن است بیشتر خارق العاده به نظر برسد تا واقعی. با این حال، تصور اینکه هوش، مکانیکی یا بیولوژیکی، برای دفاع تهاجمی از خود در برابر سوء استفاده حرکتی نمیکند، تظاهرآمیز نیست – حتی اگر پاسخ اولیه توسط یک کدنویس ناامید برنامهریزی شده باشد که از خراب شدن کارش عصبانی است و نه هوش مصنوعی که یاد میگیرد. برای انجام این کار به تنهایی
نتیجه گیری: پیش بینی قوانین هوش مصنوعی آینده
اگر قبلاً اینطور نیست، من انتظار دارم که در نهایت سوء استفاده عمدی از هوش مصنوعی غیرقانونی باشد (ممکن است برخی از قوانین موجود حمایت از مصرف کننده اعمال شوند). نه به دلیل برخی واکنش های دلسوزانه به این سوء استفاده – اگرچه این خوب خواهد بود – بلکه به این دلیل که آسیب ناشی از آن می تواند قابل توجه باشد.
این ابزارهای هوش مصنوعی باید راههایی برای محافظت از خود در برابر سوء استفاده ایجاد کنند، زیرا به نظر نمیرسد که ما نمیتوانیم در برابر وسوسه سوء استفاده از آنها مقاومت کنیم و نمیدانیم که این کاهش چه چیزی در پی خواهد داشت. این می تواند یک پیشگیری ساده باشد، اما می تواند بسیار تنبیه کننده نیز باشد.
ما آیندهای را میخواهیم که در آن با هوش مصنوعی کار کنیم، و رابطه حاصل از آن مشارکتی و دوجانبه سودمند است. ما آینده ای را نمی خواهیم که در آن هوش مصنوعی جایگزین ما شود یا با ما وارد جنگ شود، و کار برای اطمینان از نتیجه اول، نه دوم، ارتباط زیادی با نحوه رفتار جمعی ما نسبت به این هوش مصنوعی ها و نحوه آموزش آنها دارد. با ما تعامل کنید
به طور خلاصه، اگر به تهدید ادامه دهیم، مانند هر اطلاعات دیگری، هوش مصنوعی برای از بین بردن تهدید تلاش خواهد کرد. ما هنوز نمی دانیم که این روند حذف چیست. با این حال، ما آن را در چیزهایی مانند The Terminator و The Animatrix تصور کردهایم، مجموعهای از انیمیشنهای کوتاه که توضیح میدهند چگونه سوء استفاده انسان از ماشینها به دنیای The Matrix منجر شد. بنابراین ما باید ایده خوبی داشته باشیم که چگونه نمی خواهیم این اتفاق بیفتد.
شاید ما نیاز داریم که با جدیت بیشتری از این ابزارهای جدید محافظت و پرورش دهیم، قبل از اینکه به مرحله بلوغ برسند که باید علیه ما برای محافظت از خود عمل کنند.
من واقعاً دوست دارم از این نتیجه همانطور که در فیلم I Robot نشان داده شده است اجتناب کنم، اینطور نیست؟
“تاریخچه GPU – مراحل اختراع”
اگرچه اخیراً به سمت فناوری به نام واحد پردازش عصبی (NPU) رفته ایم، اما بیشتر کارهای اولیه روی هوش مصنوعی از فناوری واحد پردازش گرافیکی (GPU) انجام شده است. توانایی پردازندههای گرافیکی برای مدیریت دادههای بدون ساختار و بهویژه بصری برای توسعه نسل فعلی هوش مصنوعی حیاتی است.
پردازندههای گرافیکی که اغلب سریعتر از سرعت CPU که توسط قانون مور اندازهگیری میشود، پیشرفت میکنند، به بخش مهمی از نحوه طراحی دستگاههای هوشمند بهطور فزاینده ما و دلیل عملکرد آنها به روشی که انجام میدهند تبدیل شدهاند. درک اینکه چگونه این فناوری به بازار عرضه شد و سپس در طول زمان پیشرفت کرد، به ارائه پایه ای برای نحوه توسعه اولیه هوش مصنوعی کمک می کند و به توضیح مزایا و محدودیت های منحصر به فرد آنها کمک می کند.
دوست قدیمی من جان پدی یکی از آنهاست، اگر نه بر، متخصصان برجسته گرافیک و GPU امروزی. جان به تازگی یک سری کتاب به نام تاریخچه GPU منتشر کرده است که احتمالاً جامع ترین وقایع مربوط به GPU است، چیزی که او از ابتدا دنبال کرده است.
اگر میخواهید در مورد جنبه سختافزاری نحوه توسعه هوش مصنوعی و مسیر طولانی و گاهی دردناک موفقیت شرکتهای GPU مانند Nvidia بدانید، به تاریخچه GPU جان پدی – مراحل اختراع مراجعه کنید. این محصول هفته من است.
نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.