تکنولوژی

مقررات هوش مصنوعی ضروری خواهد بود. و پیچیده است.

چه فراخوان‌ها برای توقف توسعه هوش مصنوعی موفق شوند یا نه (اسپویل: موفق نمی‌شوند)، هوش مصنوعی نیاز به تنظیم دارد. هر فناوری در تاریخ با قابلیت‌های قابل‌تغییر قابل مقایسه تابع قوانینی بوده است. اینکه آن مقررات چگونه باید باشد، موضوع مهم و پیچیده ای خواهد بود و من و دیگران در ماه ها و سال های آینده مطالب زیادی در مورد آن خواهیم نوشت.

با این حال، حتی قبل از رسیدن به محتوای مقررات لازم، یک سوال آستانه حیاتی وجود دارد که باید به آن پرداخته شود: چه کسی باید هوش مصنوعی را تنظیم کند؟ اگر دولت، کدام بخش از دولت و چگونه؟ اگر این یک صنعت است، مکانیسم‌های مناسب برای ایجاد تعادل بین نوآوری و ایمنی چیست؟

من می خواهم با پیشنهاد برخی از اصول اساسی که باید رویکرد ما را هدایت کند، شروع کنم، که از مقررات دولتی شروع می شود. من موضوع خود تنظیمی بخش خصوصی را برای ستون آینده ذخیره خواهم کرد. (افشا: من به تعدادی از شرکت های هوش مصنوعی از جمله متا مشاوره می دهم.)

بیایید با شبحی شروع کنیم که بحث هوش مصنوعی را فراگرفته است: احتمال اینکه هوش مصنوعی یک تهدید وجودی برای جامعه بشری باشد. در یک نظرسنجی منتشر شده در سال 2022 از محققان هوش مصنوعی، تقریباً نیمی از پاسخ دهندگان گفتند که احتمال 10 درصد یا بیشتر وجود دارد که هوش مصنوعی در نهایت منجر به یک نتیجه “بسیار بد” در امتداد خطوط انقراض انسان شود.

اخطارهایی وجود دارد. تنها 17 درصد از محققینی که با آنها تماس گرفته شد، نظرسنجی را برگرداندند، و ممکن است نگران‌ترین محققان احتمال بیشتری برای پاسخ دادن داشته باشند. با این حال، یک چهارم از پاسخ دهندگان خطر یک نتیجه بسیار بد را 0٪ می دانند. با این حال، نتایج قابل توجه است.

اگر هوش مصنوعی یک تهدید وجودی برای بقای انسان باشد، در دنیای واقعی نیاز به مقررات دولتی از نوع جدی دارد. دلیلی وجود دارد که نمی‌توانید سرمایه‌گذاری خطرپذیر را افزایش دهید و شرکتی را برای ساخت و فروش موشک‌های هسته‌ای به هر کسی راه‌اندازی کنید. تسلیحات هسته ای یک تهدید وجودی آشکار برای بشریت است. تنها بازیگران مناسب برای کنترل چنین قدرتی، دولت ها هستند. و نه فقط دولت‌ها: عدم اشاعه هسته‌ای نامی است که ما به تلاش‌ها برای محدود کردن دسترسی دولت‌ها به سلاح‌های هسته‌ای می‌دهیم. و البته، در ذهن بسیاری از مردم، حتی دولت ها، چنین موتورهای خطرناک کشتار جمعی قابل اعتماد نیستند.

مطلب پیشنهادی:  تصویر روز نجوم ناسا 17 آوریل 2023: حلقه قرمز خیره کننده الف ها

بنابراین قانون اساسی نظارتی در مورد سلاح‌های هسته‌ای این است: شما نمی‌توانید مالک آن‌ها باشید، مگر اینکه دولتی باشید که به نحوی موفق به کنترل آن‌ها شوید. (سپس حذف آنها دشوار است. کره شمالی را در نظر بگیرید.) تا آنجا که سرمایه خصوصی در تأمین مالی پروژه های انرژی هسته ای صلح آمیز نقش دارد، این کار را به گونه ای انجام می دهد که کاملاً تابع مقررات دولتی است که تصمیم می گیرد زمان، کجا و چگونه انرژی هسته ای ممکن است مستقر شود.

در اینجا یک درس مهم وجود دارد. دلیل اصلی وجود دولت ها، چه دموکراتیک و چه اقتدارگرا، حفاظت از شهروندان خود است. (البته آنها همچنین از خود محافظت می کنند.) اگر دولت ها این ایده را جدی بگیرند که یک تهدید وجودی معتبر و قریب الوقوع توسط هوش مصنوعی وجود دارد، دولت ها عملاً کنترل شرکت های هوش مصنوعی را در دست خواهند گرفت و آنها را به عنوان دارایی های امنیت ملی تنظیم خواهند کرد. شرکت‌های موجود هوش مصنوعی مانند تولیدکنندگان اسلحه و سلاح خواهند بود: دارای مقررات بسیار بالا، کارکنان آن‌ها توسط دانشمندانی که دارای مجوز امنیتی هستند، و ارتباط نزدیکی با دولت امنیت ملی دارند، که اساساً آنها را از طریق ترکیبی از مقررات و قراردادهای دولتی کنترل می‌کند.

برخی از دولت ها ممکن است شرکت های هوش مصنوعی را ملی کنند یا تحقیق و توسعه هوش مصنوعی را به طور کامل ممنوع کنند. این اقدامات ممکن است رادیکال به نظر برسد. اما هیچ دولتی بر روی زمین اجازه نمی دهد تا احزاب خصوصی فناوری هایی را که به نظر او می توانند شهروندانش، خود و جهان را نابود کنند، کنترل کنند.

اگر فکر می‌کنید که این نتیجه بسیار بعید به نظر می‌رسد، احتمالاً در برخی سطوح واقعاً باور ندارید که هوش مصنوعی یک خطر وجودی با هر احتمال معنی‌داری دارد. یا شاید فکر می‌کنید شرکت‌های هوش مصنوعی آنقدر قدرتمند می‌شوند که دولت‌ها نمی‌توانند آنها را تصاحب کنند یا تعطیل کنند. این فانتزی، پسرعموی فانتزی که نمی‌توان ارزهای دیجیتال را تنظیم کرد، اساسی‌ترین حقیقت را در مورد مقررات نادیده می‌گیرد: شرکت‌ها از افراد تشکیل شده‌اند. و مردم، بدون توجه به جایی که هستند، می توانند توسط دولتی که مایل به زندانی کردن آنها است، تنظیم و اداره شوند.

مطلب پیشنهادی:  اوتار ساینی، رئیس سابق اینتل در هند در سانحه رانندگی جان باخت. بر روی تراشه های اینتل 386، 486، پنتیوم اجرا شد

اما تسلط دولت بر صنعت هوش مصنوعی، انتهای طیف است. اگر تصمیم بگیریم که هوش مصنوعی می‌تواند آسیبی ایجاد کند، اما تهدیدی وجودی ایجاد نمی‌کند، مقررات معتدل‌تری امکان‌پذیر می‌شود.

وقتی جامعه نتیجه ای را به اندازه کافی اشتباه می داند، با قانون جزا آن را ممنوع می کنیم. اگر شما باعث این نتیجه شوید، می توانید به زندان بروید. تصور مسئولیت کیفری برای هر کسی که از هوش مصنوعی برای ارتکاب کلاهبرداری یا تعقیب و آسیب رساندن به افراد دیگر استفاده می کند، آسان است. حتی می توان تصور کرد که قوانینی تصویب شده اند که در وهله اول هر کسی که هوش مصنوعی مضر را ایجاد کرده جرم انگاری می کند.

پس از آن، مقررات مدنی قانونی وجود دارد که تخلف از آن مجازات جریمه دارد. شما می توانید قوانینی را تصور کنید که از طریق تهدید مسئولیت مدنی، طیفی از نتایج هوش مصنوعی را بازدارند. در برخی موارد، قوانین موجود را می توان از طریق سازندگان و کاربران هوش مصنوعی اجرا کرد. برای مثال، تبعیض نژادی و جنسیتی با مسئولیت مدنی قابل مجازات است. طرفی که هوش مصنوعی او مرتکب این خطاهای اجتماعی شده است ممکن است طبق قوانین موجود مسئول باشد. به راحتی می توان قوانین بیشتری با جزئیات بیشتر اضافه کرد.

سومین گزینه متوسط ​​قوانین اداری است. آنها در صنایع پیچیده رایج هستند – فکر کنید کمیسیون بورس و اوراق بهادار، سازمان غذا و دارو، و آژانس حفاظت از محیط زیست. کنگره می تواند آژانس جدیدی برای تنظیم هوش مصنوعی ایجاد کند. ممکن است به او اختیاراتی داده شود تا قوانین لازم را وضع کند و آنها را به همراه تخصص اداری اعمال کند.

گاهی اوقات تصور می‌شود که چنین آژانس‌هایی توسط صنعت تسخیر می‌شوند، خطری که به‌ویژه زمانی که قانون‌گذاران واجد شرایط ممکن است مجبور شوند از خود صنعت استخراج شوند، بسیار بزرگ است. از سوی دیگر، آژانس‌ها ممکن است توسط همتایان صنعتی، مانند اتحادیه‌های کارگری، لابی شوند که ممکن است شغل خود را به دلیل بهره‌وری مبتنی بر هوش مصنوعی از دست بدهند. آژانس ها نیز بوروکراسی ایجاد می کنند و به همراه آن ضایعات می کنند. با این حال، زمینه پیچیده و تخصصی مانند هوش مصنوعی ممکن است تحت نظارت اداری بهتر از تحت کنترل مستقیم کنگره باشد.

مطلب پیشنهادی:  Samsung Galaxy Unpacked: از سری Galaxy S24 تا Galaxy AI، همه اعلامیه های مورد انتظار

در نهایت، سبک ترین شکل تنظیم وجود دارد: دعاوی حقوقی. تحت سیستم جرم ایالات متحده، ما از سازنده یا فروشنده این فناوری می‌خواهیم آنچه را که «مراقبت معقول» می‌نامیم، اعمال کند. اگر این کار را نکنند، کسی می‌تواند از آنها شکایت کند تا آنها را در قبال آسیبی که به بار آورده‌اند، مسئول بداند.

زیبایی سیستم – همچنین آزاردهنده ترین جنبه آن – این است که ما به سازنده یا فروشنده نمی گوییم دقیقاً چه کاری انجام دهد. ما از آنها انتظار داریم که تجزیه و تحلیل مناسبی از نظر هزینه و فایده انجام دهند و برای جلوگیری از آسیب های قابل پیش بینی به اندازه ای که منطقاً لازم است هزینه کنند. سپس ما از آنها استدلال می کنیم. اگر فکر می کنیم آنها اشتباه می کنند، ما بالاتر از این نیستیم که شرکت را از کار بیاندازیم – به معنای واقعی کلمه. گاهی اوقات دولت حتی شرکت را تصاحب می کند، زیرا تعدادی از دولت های ایالتی آماده هستند تا داروسازی پوردو را تصاحب کنند.

به عبارت دیگر، سیستم جرم هزینه ریسک را به بازیگران خصوصی منتقل می کند. ما به آن عادت کرده‌ایم، بنابراین این را بدیهی می‌دانیم که سرمایه باید در هر سرمایه‌گذاری‌ای که انجام می‌دهد، ریسک مسئولیت انحصاری جرم انبوه را ارزیابی کند. سرمایه گذاران این را دوست ندارند. اما در عین حال، قانون ورشکستگی و شرکت با مسئولیت محدود تا حدی از سرمایه حمایت می کنند. بنابراین به عنوان وسیله ای برای تامین اجتماعی، سیستم جرم نیز سود زیادی برای سرمایه گذاران دارد. که بدون شک چرا ایالات متحده هنوز از آن استفاده می کند، حتی اگر کشورهای دیگر ترجیح داده اند مقررات قبلی بیشتر را با مسئولیت قبلی کمتر ترکیب کنند.

من فکر می کنم نکته نهایی این است که همه این اشکال مقررات دولتی ممکن است برای هوش مصنوعی ضروری باشند. و همه ایرادات قابل توجهی دارند. اما ما باید مرتب سازی آنها را آغاز کنیم – همین الان.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا