مقررات هوش مصنوعی ضروری خواهد بود. و پیچیده است.
چه فراخوانها برای توقف توسعه هوش مصنوعی موفق شوند یا نه (اسپویل: موفق نمیشوند)، هوش مصنوعی نیاز به تنظیم دارد. هر فناوری در تاریخ با قابلیتهای قابلتغییر قابل مقایسه تابع قوانینی بوده است. اینکه آن مقررات چگونه باید باشد، موضوع مهم و پیچیده ای خواهد بود و من و دیگران در ماه ها و سال های آینده مطالب زیادی در مورد آن خواهیم نوشت.
با این حال، حتی قبل از رسیدن به محتوای مقررات لازم، یک سوال آستانه حیاتی وجود دارد که باید به آن پرداخته شود: چه کسی باید هوش مصنوعی را تنظیم کند؟ اگر دولت، کدام بخش از دولت و چگونه؟ اگر این یک صنعت است، مکانیسمهای مناسب برای ایجاد تعادل بین نوآوری و ایمنی چیست؟
من می خواهم با پیشنهاد برخی از اصول اساسی که باید رویکرد ما را هدایت کند، شروع کنم، که از مقررات دولتی شروع می شود. من موضوع خود تنظیمی بخش خصوصی را برای ستون آینده ذخیره خواهم کرد. (افشا: من به تعدادی از شرکت های هوش مصنوعی از جمله متا مشاوره می دهم.)
بیایید با شبحی شروع کنیم که بحث هوش مصنوعی را فراگرفته است: احتمال اینکه هوش مصنوعی یک تهدید وجودی برای جامعه بشری باشد. در یک نظرسنجی منتشر شده در سال 2022 از محققان هوش مصنوعی، تقریباً نیمی از پاسخ دهندگان گفتند که احتمال 10 درصد یا بیشتر وجود دارد که هوش مصنوعی در نهایت منجر به یک نتیجه “بسیار بد” در امتداد خطوط انقراض انسان شود.
اخطارهایی وجود دارد. تنها 17 درصد از محققینی که با آنها تماس گرفته شد، نظرسنجی را برگرداندند، و ممکن است نگرانترین محققان احتمال بیشتری برای پاسخ دادن داشته باشند. با این حال، یک چهارم از پاسخ دهندگان خطر یک نتیجه بسیار بد را 0٪ می دانند. با این حال، نتایج قابل توجه است.
اگر هوش مصنوعی یک تهدید وجودی برای بقای انسان باشد، در دنیای واقعی نیاز به مقررات دولتی از نوع جدی دارد. دلیلی وجود دارد که نمیتوانید سرمایهگذاری خطرپذیر را افزایش دهید و شرکتی را برای ساخت و فروش موشکهای هستهای به هر کسی راهاندازی کنید. تسلیحات هسته ای یک تهدید وجودی آشکار برای بشریت است. تنها بازیگران مناسب برای کنترل چنین قدرتی، دولت ها هستند. و نه فقط دولتها: عدم اشاعه هستهای نامی است که ما به تلاشها برای محدود کردن دسترسی دولتها به سلاحهای هستهای میدهیم. و البته، در ذهن بسیاری از مردم، حتی دولت ها، چنین موتورهای خطرناک کشتار جمعی قابل اعتماد نیستند.
بنابراین قانون اساسی نظارتی در مورد سلاحهای هستهای این است: شما نمیتوانید مالک آنها باشید، مگر اینکه دولتی باشید که به نحوی موفق به کنترل آنها شوید. (سپس حذف آنها دشوار است. کره شمالی را در نظر بگیرید.) تا آنجا که سرمایه خصوصی در تأمین مالی پروژه های انرژی هسته ای صلح آمیز نقش دارد، این کار را به گونه ای انجام می دهد که کاملاً تابع مقررات دولتی است که تصمیم می گیرد زمان، کجا و چگونه انرژی هسته ای ممکن است مستقر شود.
در اینجا یک درس مهم وجود دارد. دلیل اصلی وجود دولت ها، چه دموکراتیک و چه اقتدارگرا، حفاظت از شهروندان خود است. (البته آنها همچنین از خود محافظت می کنند.) اگر دولت ها این ایده را جدی بگیرند که یک تهدید وجودی معتبر و قریب الوقوع توسط هوش مصنوعی وجود دارد، دولت ها عملاً کنترل شرکت های هوش مصنوعی را در دست خواهند گرفت و آنها را به عنوان دارایی های امنیت ملی تنظیم خواهند کرد. شرکتهای موجود هوش مصنوعی مانند تولیدکنندگان اسلحه و سلاح خواهند بود: دارای مقررات بسیار بالا، کارکنان آنها توسط دانشمندانی که دارای مجوز امنیتی هستند، و ارتباط نزدیکی با دولت امنیت ملی دارند، که اساساً آنها را از طریق ترکیبی از مقررات و قراردادهای دولتی کنترل میکند.
برخی از دولت ها ممکن است شرکت های هوش مصنوعی را ملی کنند یا تحقیق و توسعه هوش مصنوعی را به طور کامل ممنوع کنند. این اقدامات ممکن است رادیکال به نظر برسد. اما هیچ دولتی بر روی زمین اجازه نمی دهد تا احزاب خصوصی فناوری هایی را که به نظر او می توانند شهروندانش، خود و جهان را نابود کنند، کنترل کنند.
اگر فکر میکنید که این نتیجه بسیار بعید به نظر میرسد، احتمالاً در برخی سطوح واقعاً باور ندارید که هوش مصنوعی یک خطر وجودی با هر احتمال معنیداری دارد. یا شاید فکر میکنید شرکتهای هوش مصنوعی آنقدر قدرتمند میشوند که دولتها نمیتوانند آنها را تصاحب کنند یا تعطیل کنند. این فانتزی، پسرعموی فانتزی که نمیتوان ارزهای دیجیتال را تنظیم کرد، اساسیترین حقیقت را در مورد مقررات نادیده میگیرد: شرکتها از افراد تشکیل شدهاند. و مردم، بدون توجه به جایی که هستند، می توانند توسط دولتی که مایل به زندانی کردن آنها است، تنظیم و اداره شوند.
اما تسلط دولت بر صنعت هوش مصنوعی، انتهای طیف است. اگر تصمیم بگیریم که هوش مصنوعی میتواند آسیبی ایجاد کند، اما تهدیدی وجودی ایجاد نمیکند، مقررات معتدلتری امکانپذیر میشود.
وقتی جامعه نتیجه ای را به اندازه کافی اشتباه می داند، با قانون جزا آن را ممنوع می کنیم. اگر شما باعث این نتیجه شوید، می توانید به زندان بروید. تصور مسئولیت کیفری برای هر کسی که از هوش مصنوعی برای ارتکاب کلاهبرداری یا تعقیب و آسیب رساندن به افراد دیگر استفاده می کند، آسان است. حتی می توان تصور کرد که قوانینی تصویب شده اند که در وهله اول هر کسی که هوش مصنوعی مضر را ایجاد کرده جرم انگاری می کند.
پس از آن، مقررات مدنی قانونی وجود دارد که تخلف از آن مجازات جریمه دارد. شما می توانید قوانینی را تصور کنید که از طریق تهدید مسئولیت مدنی، طیفی از نتایج هوش مصنوعی را بازدارند. در برخی موارد، قوانین موجود را می توان از طریق سازندگان و کاربران هوش مصنوعی اجرا کرد. برای مثال، تبعیض نژادی و جنسیتی با مسئولیت مدنی قابل مجازات است. طرفی که هوش مصنوعی او مرتکب این خطاهای اجتماعی شده است ممکن است طبق قوانین موجود مسئول باشد. به راحتی می توان قوانین بیشتری با جزئیات بیشتر اضافه کرد.
سومین گزینه متوسط قوانین اداری است. آنها در صنایع پیچیده رایج هستند – فکر کنید کمیسیون بورس و اوراق بهادار، سازمان غذا و دارو، و آژانس حفاظت از محیط زیست. کنگره می تواند آژانس جدیدی برای تنظیم هوش مصنوعی ایجاد کند. ممکن است به او اختیاراتی داده شود تا قوانین لازم را وضع کند و آنها را به همراه تخصص اداری اعمال کند.
گاهی اوقات تصور میشود که چنین آژانسهایی توسط صنعت تسخیر میشوند، خطری که بهویژه زمانی که قانونگذاران واجد شرایط ممکن است مجبور شوند از خود صنعت استخراج شوند، بسیار بزرگ است. از سوی دیگر، آژانسها ممکن است توسط همتایان صنعتی، مانند اتحادیههای کارگری، لابی شوند که ممکن است شغل خود را به دلیل بهرهوری مبتنی بر هوش مصنوعی از دست بدهند. آژانس ها نیز بوروکراسی ایجاد می کنند و به همراه آن ضایعات می کنند. با این حال، زمینه پیچیده و تخصصی مانند هوش مصنوعی ممکن است تحت نظارت اداری بهتر از تحت کنترل مستقیم کنگره باشد.
در نهایت، سبک ترین شکل تنظیم وجود دارد: دعاوی حقوقی. تحت سیستم جرم ایالات متحده، ما از سازنده یا فروشنده این فناوری میخواهیم آنچه را که «مراقبت معقول» مینامیم، اعمال کند. اگر این کار را نکنند، کسی میتواند از آنها شکایت کند تا آنها را در قبال آسیبی که به بار آوردهاند، مسئول بداند.
زیبایی سیستم – همچنین آزاردهنده ترین جنبه آن – این است که ما به سازنده یا فروشنده نمی گوییم دقیقاً چه کاری انجام دهد. ما از آنها انتظار داریم که تجزیه و تحلیل مناسبی از نظر هزینه و فایده انجام دهند و برای جلوگیری از آسیب های قابل پیش بینی به اندازه ای که منطقاً لازم است هزینه کنند. سپس ما از آنها استدلال می کنیم. اگر فکر می کنیم آنها اشتباه می کنند، ما بالاتر از این نیستیم که شرکت را از کار بیاندازیم – به معنای واقعی کلمه. گاهی اوقات دولت حتی شرکت را تصاحب می کند، زیرا تعدادی از دولت های ایالتی آماده هستند تا داروسازی پوردو را تصاحب کنند.
به عبارت دیگر، سیستم جرم هزینه ریسک را به بازیگران خصوصی منتقل می کند. ما به آن عادت کردهایم، بنابراین این را بدیهی میدانیم که سرمایه باید در هر سرمایهگذاریای که انجام میدهد، ریسک مسئولیت انحصاری جرم انبوه را ارزیابی کند. سرمایه گذاران این را دوست ندارند. اما در عین حال، قانون ورشکستگی و شرکت با مسئولیت محدود تا حدی از سرمایه حمایت می کنند. بنابراین به عنوان وسیله ای برای تامین اجتماعی، سیستم جرم نیز سود زیادی برای سرمایه گذاران دارد. که بدون شک چرا ایالات متحده هنوز از آن استفاده می کند، حتی اگر کشورهای دیگر ترجیح داده اند مقررات قبلی بیشتر را با مسئولیت قبلی کمتر ترکیب کنند.
من فکر می کنم نکته نهایی این است که همه این اشکال مقررات دولتی ممکن است برای هوش مصنوعی ضروری باشند. و همه ایرادات قابل توجهی دارند. اما ما باید مرتب سازی آنها را آغاز کنیم – همین الان.