تکنولوژی

انقلاب هوش مصنوعی در نقطه اوج قرار دارد

برخی از فن‌آوران می‌خواهند توسعه مداوم سیستم‌های هوش مصنوعی را قبل از اینکه مسیرهای عصبی یادگیری ماشینی با استفاده مورد نظر خالقان انسانی مخالفت کنند، متوقف کنند. دیگر کارشناسان کامپیوتر استدلال می کنند که اشتباهات اجتناب ناپذیر هستند و توسعه باید ادامه یابد.

بیش از 1000 فناور و صاحب نظر هوش مصنوعی اخیراً طوماری را برای صنعت رایانه امضا کرده اند تا آموزش سیستم های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت شش ماه متوقف کند. حامیان از توسعه دهندگان هوش مصنوعی می خواهند که استانداردهای ایمنی ایجاد کنند و خطرات احتمالی ناشی از پرخطرترین فناوری های هوش مصنوعی را کاهش دهند.

موسسه غیرانتفاعی Future of Life این طومار را سازماندهی کرد که خواستار فسخ عمومی و قابل تأیید تقریباً فوری توسط همه توسعه دهندگان کلیدی است. در غیر این صورت دولت ها باید وارد عمل شوند و مهلت قانونی وضع کنند. از این هفته، موسسه آینده زندگی می گوید که بیش از 50000 امضا جمع آوری کرده است که مراحل تأیید را طی می کنند.

این نامه تلاشی برای متوقف کردن همه توسعه های هوش مصنوعی به طور کلی نیست. در عوض، طرفداران آن از توسعه‌دهندگان می‌خواهند که از رقابت خطرناک «به سمت مدل‌های جعبه سیاه بزرگ‌تر و غیرقابل پیش‌بینی‌تر از قابلیت‌های نوظهور» بروند. در طول دوره انتظار، آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید به طور مشترک مجموعه‌ای از پروتکل‌های ایمنی مشترک را برای طراحی و توسعه هوش مصنوعی پیشرفته ایجاد و اجرا کنند.

در این نامه آمده است: «تحقیق و توسعه هوش مصنوعی باید دوباره بر روی ساختن سیستم‌های قدرتمند و پیشرفته امروزی دقیق‌تر، ایمن‌تر، قابل تفسیرتر، شفاف‌تر، قوی‌تر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.

پشتیبانی جهانی نیست

جان بامبنک، رئیس شکارچی تهدیدات در شرکت تجزیه و تحلیل عملیات و امنیت SaaS Netenrich، پیشنهاد کرد که هیچ کسی نمی تواند چیزی را متوقف کند. با این حال، او متوجه می شود که توجه به پیامدهای اخلاقی پروژه های هوش مصنوعی بسیار از سرعت توسعه عقب است.

بامبنک به دیجیتال تو گفت: «من فکر می‌کنم خوب است که کاری را که انجام می‌دهیم و تأثیرات عمیقی که خواهد داشت، ارزیابی کنیم، زیرا قبلاً شاهد شکست‌های خیره‌کننده‌ای در اجرای بی‌ملاحظه AI/ML بوده‌ایم.

اندرو بارات، معاون شرکت مشاوره امنیت سایبری کوالفایر، افزود: هر کاری که ما برای متوقف کردن چیزها در فضای هوش مصنوعی انجام می دهیم، احتمالا فقط سر و صدا است. همچنین انجام این کار در سطح جهانی به صورت هماهنگ غیرممکن است.


هوش مصنوعی محرک بهره وری چند نسل آینده خواهد بود. این خطر این است که ببینیم آن را جایگزین موتورهای جستجو می کنیم و سپس توسط تبلیغ کنندگانی که محصولات خود را “هوشمندانه” در پاسخ ها قرار می دهند، کسب درآمد می کنند. بارت به دیجیتال تو گفت: جالب توجه است که به نظر می رسد اوج ترس پس از توجه اخیر به ChatGPT ایجاد شده است.

مطلب پیشنهادی:  بانک ها حق دارند Office ChatGPT را محدود کنند

به جای مکث، بارات توصیه می کند کارکنان دانش در سراسر جهان را تشویق کنند تا به بهترین نحو از ابزارهای مختلف هوش مصنوعی استفاده کنند که کاربر پسندتر می شوند تا به افزایش بهره وری کمک کنند. کسانی که این کار را نکنند، عقب خواهند ماند.

به گفته دیو گری، مدیر عامل شرکت امنیت سایبری Bugcrowd، امنیت و حریم خصوصی باید همچنان دغدغه اصلی هر شرکت فناوری باشد، خواه متمرکز بر هوش مصنوعی باشد یا نباشد. وقتی صحبت از هوش مصنوعی به میان می‌آید، اطمینان از اینکه مدل دارای پادمان‌های لازم، بازخورد و مکانیزمی برای برجسته کردن مسائل ایمنی است، بسیار مهم است.

از آنجایی که سازمان‌ها به سرعت هوش مصنوعی را برای تمام مزایای آن در بهره‌وری، بهره‌وری و دموکراسی‌سازی داده‌ها اتخاذ می‌کنند، مهم است که اطمینان حاصل شود که وقتی نگرانی‌ها شناسایی می‌شوند، مکانیزم گزارش‌دهی برای افشای آن‌ها به همان روشی وجود دارد که آسیب‌پذیری امنیتی شناسایی و گزارش می‌شود. گری به دیجیتال تو گفت.

برجسته کردن نگرانی های مشروع

در چیزی که ممکن است یک پاسخ معمولی فزاینده به نیاز به تنظیم هوش مصنوعی باشد، آنتونی فیگوئروا، کارشناس یادگیری ماشین، یکی از بنیانگذاران و مدیر ارشد فناوری شرکت توسعه نرم‌افزار مبتنی بر نتایج Rootstrap، از تنظیم هوش مصنوعی پشتیبانی می‌کند. منجر به هر گونه تغییر مهم خواهد شد.

Figueroa از داده های بزرگ و یادگیری ماشینی برای کمک به شرکت ها برای ایجاد راه حل های نوآورانه برای کسب درآمد از خدمات خود استفاده می کند. اما او تردید دارد که تنظیم کننده ها با سرعت مناسب حرکت کنند و پیامدهای آنچه را که قرار است تنظیم کنند را درک کنند. او این چالش را شبیه به چالشی که دو دهه پیش توسط رسانه های اجتماعی مطرح شد، می بیند.


“من فکر می کنم نامه ای که آنها نوشتند مهم است. ما در نقطه اوج هستیم و باید به پیشرفت هایی فکر کنیم که قبلاً نداشته ایم. من فکر نمی‌کنم توقف چیزی برای شش ماه، یک سال، دو سال یا یک دهه امکان‌پذیر باشد.»

ناگهان، همه چیز با هوش مصنوعی به چیز بزرگ بعدی جهانی تبدیل شد. موفقیت واقعی یک شبه محصول OpenAI ChatGPT به طور ناگهانی باعث شد که جهان بنشیند و به قدرت و پتانسیل عظیم فناوری‌های هوش مصنوعی و ML توجه کند.

ما هنوز پیامدهای این فناوری را نمی دانیم. این چه خطراتی دارد؟ ما چند چیز را می دانیم که می تواند با این شمشیر دو لبه اشتباه کند.» او هشدار داد.

آیا هوش مصنوعی نیاز به مقررات دارد؟

دیجیتال تو با Anthony Figueroa در مورد مسائل مربوط به نیاز به کنترل توسعه دهندگان بر یادگیری ماشین و نیاز بالقوه به مقررات دولتی هوش مصنوعی بحث کرد.

دیجیتال تو: در صنعت کامپیوتر، چه دستورالعمل‌ها و اصول اخلاقی وجود دارد که ایمن در مسیر باقی بماند؟

آنتونی فیگوئرا: شما به مجموعه ای از اخلاق شخصی در ذهن خود نیاز دارید. اما حتی با آن هم می توانید عواقب ناخواسته زیادی داشته باشید. کاری که ما با این فناوری جدید انجام می دهیم، برای مثال ChatGPT، قرار دادن هوش مصنوعی در معرض حجم زیادی از داده ها است.

مطلب پیشنهادی:  درخواست انجام نشد

این داده ها از منابع عمومی و خصوصی و چیزهای مختلف می آید. ما از تکنیکی به نام یادگیری عمیق استفاده می کنیم که مبتنی بر مطالعه نحوه عملکرد مغز ما است.

این چگونه بر استفاده از اخلاق و دستورالعمل ها تأثیر می گذارد؟

فیگوروآ: گاهی اوقات ما حتی نمی‌دانیم که هوش مصنوعی چگونه یک مشکل را به روشی خاص حل می‌کند. ما فرآیند تفکر در اکوسیستم هوش مصنوعی را درک نمی کنیم. به این مفهومی به نام توضیح پذیر اضافه کنید. شما باید بتوانید تعیین کنید که چگونه تصمیم گرفته شده است. اما با هوش مصنوعی، این همیشه قابل توضیح نیست و نتایج متفاوتی دارد.

این عوامل در هوش مصنوعی چگونه متفاوت هستند؟

فیگوروآ: هوش مصنوعی قابل توضیح کمی قدرت کمتری دارد، زیرا محدودیت‌های بیشتری دارید، اما از طرف دیگر، شما مسئله اخلاق را دارید.

برای مثال، پزشکانی را در نظر بگیرید که با یک مورد سرطان سروکار دارند. آنها چندین روش درمانی را ارائه می دهند. یکی از این سه دارو کاملاً خود توضیحی است و به بیمار 60 درصد شانس درمان می دهد. سپس آنها یک درمان غیرقابل توضیح دارند که بر اساس داده های تاریخی، 80 درصد شانس درمان خواهد داشت، اما آنها واقعاً نمی دانند چرا.

این ترکیب داروها به همراه DNA بیمار و سایر عوامل بر نتیجه تأثیر می گذارد. پس بیمار باید چه بخورد؟ می دانید، تصمیم سختی است.

چگونه “هوش” را از نظر توسعه هوش مصنوعی تعریف می کنید؟

فیگوروآ: هوش را می توان توانایی حل مشکلات تعریف کرد. کامپیوترها مسائل را به روشی بسیار متفاوت از انسان حل می کنند. ما آنها را با ترکیب وظیفه‌شناسی و هوش حل می‌کنیم، که به ما این توانایی را می‌دهد تا مسائل را درک کنیم و مشکلات را با هم حل کنیم.

هوش مصنوعی مشکلات را با تمرکز بر نتایج حل خواهد کرد. یک مثال معمولی خودروهای خودران است. اگر همه نتایج بد باشند چه؟


یک خودروی خودران از بین همه نتایج ممکن کمترین بد را انتخاب می کند. اگر هوش مصنوعی مجبور است یک مانور ناوبری را انتخاب کند که یا “راننده مسافر” را بکشد یا دو نفر را در جاده ای که از چراغ قرمز عبور می کنند، بکشد، می توانید به هر طریقی این کار را انجام دهید.

می توانید دلیل کنید که عابران پیاده اشتباه کرده اند. بنابراین هوش مصنوعی یک قضاوت اخلاقی می کند و می گوید بیایید عابران پیاده را بکشیم. یا ممکن است هوش مصنوعی بگوید، بیایید سعی کنیم تا حد امکان کمتر مردم را بکشیم. جواب صحیحی وجود ندارد.

در مورد مسائل مربوط به مقررات چطور؟

فیگوروآ: فکر می کنم هوش مصنوعی باید تنظیم شود. ما ممکن است توسعه یا نوآوری را تا زمانی که یک ارزیابی نظارتی روشن داشته باشیم، متوقف کنیم. ما آن را نخواهیم داشت. ما دقیقاً نمی دانیم چه چیزی را تنظیم می کنیم یا چگونه مقررات را اجرا کنیم. بنابراین ما باید یک راه جدید برای تنظیم ایجاد کنیم.

یکی از کارهایی که توسعه دهندگان OpenAI به خوبی انجام می دهند، ساختن برجسته فناوری خود است. توسعه دهندگان می توانند دو سال دیگر روی فناوری خود کار کنند و فناوری بسیار پیچیده تری ارائه دهند. اما آنها تصمیم گرفتند پیشرفت فعلی را در معرض دید جهانیان قرار دهند تا مردم بتوانند در مورد مقررات و اینکه چه نوع مقرراتی می تواند در مورد آن اعمال شود فکر کنند.

مطلب پیشنهادی:  ناسا می گوید یک سیارک بزرگ به اندازه یک ساختمان امروز به سمت زمین می رود

فرآیند ارزیابی را چگونه شروع می کنید؟

فیگوروآ: همه چیز با دو سوال شروع می شود. یکی اینکه مقررات چیست؟ این دستورالعملی است که توسط یک مقام تهیه و نگهداری می شود. سپس سؤال دوم این است که چه کسی مرجع است – نهادی که قدرت صدور دستور، تصمیم گیری و اجرای آن تصمیمات را دارد؟

در رابطه با دو سوال اول، سوال سوم این است که کاندیداها چه کسانی یا چه کسانی هستند؟ ما می‌توانیم دولتی مستقر در یک کشور یا نهادهای ملی جداگانه مانند سازمان ملل داشته باشیم که ممکن است در این شرایط ناتوان باشد.

وقتی خود تنظیم صنعت دارید، می توانید بهترین راه را مطرح کنید. اما شما بازیگران بد زیادی خواهید داشت. شما می‌توانید سازمان‌های حرفه‌ای داشته باشید، اما در نهایت با بوروکراسی بیشتری مواجه خواهید شد. در همین حال، هوش مصنوعی با سرعت خیره کننده ای حرکت می کند.

به نظر شما بهترین رویکرد چیست؟

فیگوروآ: این باید ترکیبی از دولت، صنعت، سازمان های حرفه ای و شاید سازمان های غیردولتی باشد که با هم کار می کنند. اما من خیلی خوشبین نیستم و فکر نمی کنم آنها راه حل کافی برای آنچه در راه است پیدا کنند.

آیا راهی برای مقابله با هوش مصنوعی و ML وجود دارد تا در صورت تجاوز موضوع از دستورالعمل ها، اقدامات ایمنی موقتی را معرفی کنیم؟

فیگوروآ: شما همیشه می توانید این کار را انجام دهید. اما یک چالش ناتوانی در پیش‌بینی تمام نتایج بالقوه این فناوری‌ها است.

در حال حاضر، همه پسران بزرگ در صنعت – OpenAI، مایکروسافت، گوگل – در حال کار بر روی فناوری اساسی تر هستند. همچنین، بسیاری از شرکت‌های هوش مصنوعی با استفاده از فناوری در حال ایجاد، با سطح دیگری از انتزاع کار می‌کنند. اما آنها قدیمی ترین موجودات هستند.


بنابراین شما مغز ژنتیکی دارید که هر کاری می خواهید انجام دهید. اگر اصول اخلاقی و رویه‌های مناسب را در نظر بگیرید، می‌توانید اثرات نامطلوب را کاهش دهید، ایمنی را افزایش دهید و سوگیری را کاهش دهید. اما شما اصلا نمی توانید آن را حذف کنید. ما باید با آن زندگی کنیم و مقداری پاسخگویی و مقررات ایجاد کنیم. اگر نتیجه نامطلوبی رخ دهد، باید مشخص کنیم که مسئولیت آن چه کسی است. من فکر می کنم این کلید است.

اکنون برای ترسیم مسیر استفاده ایمن از هوش مصنوعی و ML چه باید کرد؟

فیگوروآ: اول این است که ما همه چیز را نمی دانیم و می پذیریم که عواقب منفی در پی خواهد داشت. در درازمدت، هدف این است که نکات مثبت بیشتر از موارد منفی باشد.

در نظر بگیرید که انقلاب هوش مصنوعی در حال حاضر غیرقابل پیش بینی اما اجتناب ناپذیر است. شما می توانید استدلال کنید که می توان مقرراتی وضع کرد و خوب است که سرعت خود را کم کنیم و اطمینان حاصل کنیم که تا حد امکان ایمن هستیم. بپذیرید که ما متحمل عواقب منفی خواهیم شد، به این امید که اثرات بلندمدت آن بسیار بهتر باشد و جامعه بسیار بهتری را به ما بدهد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا