OpenAI Exec تشخیص می دهد که هوش مصنوعی نیاز به تنظیم دارد
میرا موراتی، مدیر ارشد فناوری OpenAI، روز یکشنبه در مصاحبهای با مجله تایم اذعان کرد که این فناوری نیاز به تنظیم مقررات دارد، بحثها را بر سر نظارت دولت بر هوش مصنوعی دوباره برانگیخت.
موراتی به تایم گفت: «برای OpenAI و شرکتهایی مانند ما مهم است که این موضوع را به شیوهای کنترلشده و پاسخگو به آگاهی عمومی بیاورند». اما ما گروه کوچکی از مردم هستیم و به اطلاعات بسیار بیشتری در این سیستم و اطلاعات بسیار بیشتری نیاز داریم که فراتر از فناوری باشد – قطعاً تنظیمکنندهها، دولتها و همه افراد دیگر.»
او در پاسخ به این سوال که آیا مشارکت دولت در این مرحله در توسعه هوش مصنوعی می تواند مانع نوآوری شود، گفت: «هنوز زود نیست. با توجه به تأثیری که این فناوریها خواهند داشت، بسیار مهم است که همه شروع به مشارکت کنند.»
گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب سایت خبری، تفسیری و تحلیلی، با این نظر موافق است که از آنجایی که بازار مشوق هایی برای سوء استفاده فراهم می کند، احتمالاً به برخی مقررات نیاز است.
استرلینگ به دیجیتال تو گفت: «محرکهای با دقت ساختهشده در برابر رفتارهای غیراخلاقی میتوانند سوءاستفاده بالقوه از هوش مصنوعی را به حداقل برسانند، اما مقررات نیز میتواند ضعیف ساخته شود و در جلوگیری از هر یک از آن شکست بخورد.»
او اذعان کرد که مقررات خیلی زود یا خیلی محکم می تواند به نوآوری آسیب برساند و مزایای هوش مصنوعی را محدود کند.
دولت ها باید کارشناسان هوش مصنوعی و رهبران صنعت را گرد هم بیاورند تا به طور مشترک چارچوبی را برای مقررات احتمالی آینده ترسیم کنند. استرلینگ گفت: احتمالاً باید دامنه بین المللی داشته باشد.
قوانین موجود را در نظر بگیرید
جنیفر هادلستون، محقق سیاست فناوری در موسسه کاتو، یک اتاق فکر در واشنگتن دی سی، توضیح داد که هوش مصنوعی، مانند بسیاری از فناوری ها و ابزارها، می تواند برای اهداف مختلف مورد استفاده قرار گیرد.
او ادامه داد که بسیاری از این استفادهها مثبت هستند و مصرفکنندگان در حال حاضر استفادههای مفیدی از هوش مصنوعی مانند ترجمه بلادرنگ و ناوبری بهتر ترافیک را تجربه میکنند. هادلستون به دیجیتال تو گفت: «قبل از درخواست برای مقررات جدید، سیاستگذاران باید در نظر بگیرند که چگونه قوانین موجود در مورد موضوعاتی مانند تبعیض می تواند نگرانی ها را برطرف کند.
میسون کورتز، مربی بالینی در کلینیک Cyberlaw در دانشکده حقوق هاروارد در کمبریج، ماساچوست، اضافه کرد که هوش مصنوعی باید تنظیم شود، اما ما همچنین باید در نظر بگیریم که چگونه آن را قبلاً تنظیم میکند.
کورتز به دیجیتال تو گفت: «ما قوانین کلی زیادی داریم که چیزها را قانونی یا غیرقانونی میکند، خواه ساخت انسان باشد یا ساختهشده توسط هوش مصنوعی.
او گفت: «ما باید به راههایی نگاه کنیم که قوانین موجود از قبل برای تنظیم هوش مصنوعی کافی هستند و راههایی که این کار را نمیکنند، و باید کاری جدید انجام دهیم و خلاق باشیم.»
به عنوان مثال، وی خاطرنشان کرد که هیچ مقررات کلی در مورد مسئولیت خودروهای خودران وجود ندارد. با این حال، اگر یک وسیله نقلیه خودران باعث تصادف شود، هنوز زمینه های زیادی از قانون وجود دارد که باید به آنها مراجعه کرد، مانند قانون سهل انگاری و قانون مسئولیت محصول. او توضیح داد که اینها راه های بالقوه ای برای تنظیم استفاده از هوش مصنوعی هستند.
یک لمس سبک لازم است
با این حال، کورتز اذعان کرد که بسیاری از قوانین موجود پس از این واقعیت وارد عمل می شوند. او گفت: “بنابراین آنها به نوعی در رتبه دوم قرار دارند.” “اما آنها یک اقدام مهم هستند که ما در حال تدوین مقررات هستیم.”
وی افزود: «ما باید سعی کنیم در تنظیم مقررات در جایی که می توانیم فعال باشیم. «بررسی معکوس از طریق سیستم دادگاه پس از وقوع آسیب صورت می گیرد. اگر آسیب هرگز رخ ندهد بهتر است.
با این حال، Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا، استدلال کرد که مقررات سنگین می تواند صنعت پررونق هوش مصنوعی را خفه کند.
ونا به دیجیتال تو گفت: «در این مرحله اولیه، من طرفدار مقررات دولتی هوش مصنوعی نیستم. هوش مصنوعی می تواند مزایای زیادی داشته باشد و مداخله دولت می تواند آنها را خفه کند.
او معتقد است که در دهه 1990 از این نوع اثر خفه کننده در اینترنت با مقررات “لمس سبک” مانند بخش 230 قانون نجابت ارتباطات، که به پلتفرم های آنلاین از مسئولیت در قبال محتوای شخص ثالث در وب سایت های آنها مصونیت می بخشد، جلوگیری شد.
اما کورتز بر این باور است که دولت می تواند بدون تعطیل کردن یک صنعت، ترمزهای معقولی را برای چیزی ایجاد کند.
او گفت: “مردم از FDA انتقاد می کنند که مستعد دستگیری نظارتی است، اینکه توسط شرکت های دارویی اداره می شود، اما ما هنوز در دنیایی بهتر از قبل از FDA هستیم، زمانی که هر کسی می توانست هر چیزی را بفروشد و هر چیزی را روی برچسب بگذارد.” .
“آیا راه حل خوبی وجود دارد که فقط جنبه های خوب هوش مصنوعی را به تصویر بکشد و تمام جنبه های بد را متوقف کند؟ ونا ادامه داد: احتمالاً نه، اما برخی ساختارها بهتر از هیچ است.
او افزود: «اجازه دادن به هوش مصنوعی خوب و هوش مصنوعی بد برای هیچکس خوب نیست.» ما نمی توانیم تضمین کنیم که هوش مصنوعی خوب در این نبرد پیروز خواهد شد و آسیب جانبی می تواند بسیار قابل توجه باشد.
تنظیم بدون خفه کردن
دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست گذاری عمومی، در واشنگتن دی سی، خاطرنشان کرد: سیاست گذاران می توانند چندین کار برای تنظیم هوش مصنوعی بدون خفه کردن نوآوری انجام دهند.
کاسترو به دیجیتال تو گفت: «یکی از آنها تمرکز بر موارد استفاده خاص است. به عنوان مثال، تنظیم خودروهای خودران باید متفاوت از تنظیم هوش مصنوعی مورد استفاده برای تولید موسیقی باشد.
او ادامه داد: تمرکز بر رفتار چیز دیگری است. به عنوان مثال، تبعیض در هنگام استخدام کارمندان یا اجاره آپارتمان غیرقانونی است – این که آیا تصمیم توسط یک انسان گرفته می شود یا یک سیستم هوش مصنوعی باید بی ربط باشد.
وی افزود: «اما سیاستگذاران باید مراقب باشند که هوش مصنوعی را به صورت غیرمنصفانه در استانداردهای مختلف قرار ندهند یا مقرراتی را معرفی نکنند که برای هوش مصنوعی منطقی نیست. به عنوان مثال، برخی از الزامات ایمنی در وسایل نقلیه امروزی، مانند فرمان و آینه های دید عقب، برای وسایل نقلیه خودران بدون سرنشین یا راننده منطقی نیست.
Vena مایل است رویکردی «شفاف» برای مقررات داشته باشد.
او گفت: «من ترجیح میدهم مقرراتی که توسعهدهندگان و تولیدکنندگان محتوا را ملزم میکند در مورد الگوریتمهایی که استفاده میکنند شفاف باشند. “آنها ممکن است توسط یک نهاد شخص ثالث متشکل از دانشگاهیان و برخی از نهادهای تجاری بررسی شوند.”
او استدلال کرد: «شفافیت در مورد الگوریتمها و منابع محتوایی که ابزارهای هوش مصنوعی از آنها مشتق شدهاند، باید تعادل را تقویت کرده و سوءاستفاده را کاهش دهد.
برای بدترین سناریوها برنامه ریزی کنید
کورتز خاطرنشان کرد که بسیاری از مردم معتقدند که فناوری خنثی است.
او گفت: «فکر نمیکنم فناوری خنثی باشد. ما باید به بازیگران بد فکر کنیم. اما ما همچنین باید به تصمیمات بد افرادی که این چیزها را ایجاد می کنند و آنها را در جهان رها می کنند فکر کنیم.
او در پایان گفت: «من هر کسی را که هوش مصنوعی را برای یک مورد خاص توسعه میدهد تشویق میکنم که نه تنها به هدفشان فکر کنند، بلکه بدترین استفاده ممکن از فناوریشان چیست.»