تکنولوژی

OpenAI Exec تشخیص می دهد که هوش مصنوعی نیاز به تنظیم دارد

میرا موراتی، مدیر ارشد فناوری OpenAI، روز یکشنبه در مصاحبه‌ای با مجله تایم اذعان کرد که این فناوری نیاز به تنظیم مقررات دارد، بحث‌ها را بر سر نظارت دولت بر هوش مصنوعی دوباره برانگیخت.

موراتی به تایم گفت: «برای OpenAI و شرکت‌هایی مانند ما مهم است که این موضوع را به شیوه‌ای کنترل‌شده و پاسخگو به آگاهی عمومی بیاورند». اما ما گروه کوچکی از مردم هستیم و به اطلاعات بسیار بیشتری در این سیستم و اطلاعات بسیار بیشتری نیاز داریم که فراتر از فناوری باشد – قطعاً تنظیم‌کننده‌ها، دولت‌ها و همه افراد دیگر.»

او در پاسخ به این سوال که آیا مشارکت دولت در این مرحله در توسعه هوش مصنوعی می تواند مانع نوآوری شود، گفت: «هنوز زود نیست. با توجه به تأثیری که این فناوری‌ها خواهند داشت، بسیار مهم است که همه شروع به مشارکت کنند.»

گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب سایت خبری، تفسیری و تحلیلی، با این نظر موافق است که از آنجایی که بازار مشوق هایی برای سوء استفاده فراهم می کند، احتمالاً به برخی مقررات نیاز است.

استرلینگ به دیجیتال تو گفت: «محرک‌های با دقت ساخته‌شده در برابر رفتارهای غیراخلاقی می‌توانند سوءاستفاده بالقوه از هوش مصنوعی را به حداقل برسانند، اما مقررات نیز می‌تواند ضعیف ساخته شود و در جلوگیری از هر یک از آن شکست بخورد.»

او اذعان کرد که مقررات خیلی زود یا خیلی محکم می تواند به نوآوری آسیب برساند و مزایای هوش مصنوعی را محدود کند.

دولت ها باید کارشناسان هوش مصنوعی و رهبران صنعت را گرد هم بیاورند تا به طور مشترک چارچوبی را برای مقررات احتمالی آینده ترسیم کنند. استرلینگ گفت: احتمالاً باید دامنه بین المللی داشته باشد.

قوانین موجود را در نظر بگیرید

جنیفر هادلستون، محقق سیاست فناوری در موسسه کاتو، یک اتاق فکر در واشنگتن دی سی، توضیح داد که هوش مصنوعی، مانند بسیاری از فناوری ها و ابزارها، می تواند برای اهداف مختلف مورد استفاده قرار گیرد.

مطلب پیشنهادی:  ویندوز 11 2022 در حال عرضه است. نحوه دانلود را از اینجا بیاموزید

او ادامه داد که بسیاری از این استفاده‌ها مثبت هستند و مصرف‌کنندگان در حال حاضر استفاده‌های مفیدی از هوش مصنوعی مانند ترجمه بلادرنگ و ناوبری بهتر ترافیک را تجربه می‌کنند. هادلستون به دیجیتال تو گفت: «قبل از درخواست برای مقررات جدید، سیاستگذاران باید در نظر بگیرند که چگونه قوانین موجود در مورد موضوعاتی مانند تبعیض می تواند نگرانی ها را برطرف کند.


میسون کورتز، مربی بالینی در کلینیک Cyberlaw در دانشکده حقوق هاروارد در کمبریج، ماساچوست، اضافه کرد که هوش مصنوعی باید تنظیم شود، اما ما همچنین باید در نظر بگیریم که چگونه آن را قبلاً تنظیم می‌کند.

کورتز به دیجیتال تو گفت: «ما قوانین کلی زیادی داریم که چیزها را قانونی یا غیرقانونی می‌کند، خواه ساخت انسان باشد یا ساخته‌شده توسط هوش مصنوعی.

او گفت: «ما باید به راه‌هایی نگاه کنیم که قوانین موجود از قبل برای تنظیم هوش مصنوعی کافی هستند و راه‌هایی که این کار را نمی‌کنند، و باید کاری جدید انجام دهیم و خلاق باشیم.»

به عنوان مثال، وی خاطرنشان کرد که هیچ مقررات کلی در مورد مسئولیت خودروهای خودران وجود ندارد. با این حال، اگر یک وسیله نقلیه خودران باعث تصادف شود، هنوز زمینه های زیادی از قانون وجود دارد که باید به آنها مراجعه کرد، مانند قانون سهل انگاری و قانون مسئولیت محصول. او توضیح داد که اینها راه های بالقوه ای برای تنظیم استفاده از هوش مصنوعی هستند.

یک لمس سبک لازم است

با این حال، کورتز اذعان کرد که بسیاری از قوانین موجود پس از این واقعیت وارد عمل می شوند. او گفت: “بنابراین آنها به نوعی در رتبه دوم قرار دارند.” “اما آنها یک اقدام مهم هستند که ما در حال تدوین مقررات هستیم.”

وی افزود: «ما باید سعی کنیم در تنظیم مقررات در جایی که می توانیم فعال باشیم. «بررسی معکوس از طریق سیستم دادگاه پس از وقوع آسیب صورت می گیرد. اگر آسیب هرگز رخ ندهد بهتر است.

مطلب پیشنهادی:  هیچ چیز ادغام ChatGPT با NothingOS، Ear و Ear(a) را اعلام نمی کند. بدانید چه چیز جدیدی است

با این حال، Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا، استدلال کرد که مقررات سنگین می تواند صنعت پررونق هوش مصنوعی را خفه کند.

ونا به دیجیتال تو گفت: «در این مرحله اولیه، من طرفدار مقررات دولتی هوش مصنوعی نیستم. هوش مصنوعی می تواند مزایای زیادی داشته باشد و مداخله دولت می تواند آنها را خفه کند.


او معتقد است که در دهه 1990 از این نوع اثر خفه کننده در اینترنت با مقررات “لمس سبک” مانند بخش 230 قانون نجابت ارتباطات، که به پلتفرم های آنلاین از مسئولیت در قبال محتوای شخص ثالث در وب سایت های آنها مصونیت می بخشد، جلوگیری شد.

اما کورتز بر این باور است که دولت می تواند بدون تعطیل کردن یک صنعت، ترمزهای معقولی را برای چیزی ایجاد کند.

او گفت: “مردم از FDA انتقاد می کنند که مستعد دستگیری نظارتی است، اینکه توسط شرکت های دارویی اداره می شود، اما ما هنوز در دنیایی بهتر از قبل از FDA هستیم، زمانی که هر کسی می توانست هر چیزی را بفروشد و هر چیزی را روی برچسب بگذارد.” .

“آیا راه حل خوبی وجود دارد که فقط جنبه های خوب هوش مصنوعی را به تصویر بکشد و تمام جنبه های بد را متوقف کند؟ ونا ادامه داد: احتمالاً نه، اما برخی ساختارها بهتر از هیچ است.

او افزود: «اجازه دادن به هوش مصنوعی خوب و هوش مصنوعی بد برای هیچ‌کس خوب نیست.» ما نمی توانیم تضمین کنیم که هوش مصنوعی خوب در این نبرد پیروز خواهد شد و آسیب جانبی می تواند بسیار قابل توجه باشد.

تنظیم بدون خفه کردن

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست گذاری عمومی، در واشنگتن دی سی، خاطرنشان کرد: سیاست گذاران می توانند چندین کار برای تنظیم هوش مصنوعی بدون خفه کردن نوآوری انجام دهند.

مطلب پیشنهادی:  اکنون مرورگر Google Chrome رایانه خود را به‌روزرسانی کنید - دولت هشدارهای پرخطر صادر می‌کند

کاسترو به دیجیتال تو گفت: «یکی از آنها تمرکز بر موارد استفاده خاص است. به عنوان مثال، تنظیم خودروهای خودران باید متفاوت از تنظیم هوش مصنوعی مورد استفاده برای تولید موسیقی باشد.

او ادامه داد: تمرکز بر رفتار چیز دیگری است. به عنوان مثال، تبعیض در هنگام استخدام کارمندان یا اجاره آپارتمان غیرقانونی است – این که آیا تصمیم توسط یک انسان گرفته می شود یا یک سیستم هوش مصنوعی باید بی ربط باشد.

وی افزود: «اما سیاستگذاران باید مراقب باشند که هوش مصنوعی را به صورت غیرمنصفانه در استانداردهای مختلف قرار ندهند یا مقرراتی را معرفی نکنند که برای هوش مصنوعی منطقی نیست. به عنوان مثال، برخی از الزامات ایمنی در وسایل نقلیه امروزی، مانند فرمان و آینه های دید عقب، برای وسایل نقلیه خودران بدون سرنشین یا راننده منطقی نیست.


Vena مایل است رویکردی «شفاف» برای مقررات داشته باشد.

او گفت: «من ترجیح می‌دهم مقرراتی که توسعه‌دهندگان و تولیدکنندگان محتوا را ملزم می‌کند در مورد الگوریتم‌هایی که استفاده می‌کنند شفاف باشند. “آنها ممکن است توسط یک نهاد شخص ثالث متشکل از دانشگاهیان و برخی از نهادهای تجاری بررسی شوند.”

او استدلال کرد: «شفافیت در مورد الگوریتم‌ها و منابع محتوایی که ابزارهای هوش مصنوعی از آنها مشتق شده‌اند، باید تعادل را تقویت کرده و سوءاستفاده را کاهش دهد.

برای بدترین سناریوها برنامه ریزی کنید

کورتز خاطرنشان کرد که بسیاری از مردم معتقدند که فناوری خنثی است.

او گفت: «فکر نمی‌کنم فناوری خنثی باشد. ما باید به بازیگران بد فکر کنیم. اما ما همچنین باید به تصمیمات بد افرادی که این چیزها را ایجاد می کنند و آنها را در جهان رها می کنند فکر کنیم.

او در پایان گفت: «من هر کسی را که هوش مصنوعی را برای یک مورد خاص توسعه می‌دهد تشویق می‌کنم که نه تنها به هدفشان فکر کنند، بلکه بدترین استفاده ممکن از فناوریشان چیست.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا