هوش مصنوعی واشنگتن را زیر سوال می برد، اما اجماع هنوز قطعی نیست
قانونگذاران ایالات متحده در حال مبارزه با این هستند که چه نرده هایی را در اطراف هوش مصنوعی در حال رشد قرار دهند، اما ماه ها پس از اینکه ChatGPT توجه واشنگتن را به خود جلب کرد، اجماع چندان قطعی نیست.
مصاحبه با سناتورهای آمریکایی، کارکنان کنگره، شرکتهای هوش مصنوعی و گروههای ذینفع نشان میدهد که تعدادی از گزینهها در حال بحث هستند.
این مناظره روز سهشنبه، زمانی که سم آلتمن، مدیر عامل OpenAI برای اولین بار در مجلس سنا حاضر میشود، در مرکز قرار میگیرد.
برخی از پیشنهادات بر روی هوش مصنوعی تمرکز می کنند که می تواند زندگی یا معیشت مردم را در معرض خطر قرار دهد، مانند پزشکی و مالی. سایر احتمالات شامل قوانینی برای اطمینان از عدم استفاده از هوش مصنوعی برای تبعیض یا نقض حقوق مدنی افراد است.
بحث دیگر این است که آیا باید توسعهدهنده هوش مصنوعی را تنظیم کرد یا شرکتی که از آن برای تعامل با کاربران استفاده میکند. و OpenAI، استارتاپی که پشت چت باتهای حساس ChatGPT است، یک تنظیمکننده هوش مصنوعی مستقل را مورد بحث قرار داده است.
مشخص نیست که کدام رویکرد برنده خواهد شد، اما برخی در جامعه تجاری، از جمله IBM و اتاق بازرگانی ایالات متحده، طرفدار رویکردی هستند که فقط حوزههای حیاتی مانند تشخیصهای پزشکی را تنظیم میکند، که آنها آن را رویکرد مبتنی بر ریسک مینامند.
جردن کرنشاو از مرکز تعامل فناوری مجلس نمایندگان گفت: اگر کنگره تصمیم بگیرد که به قوانین جدیدی نیاز است، کمیته هوش مصنوعی مجلس نمایندگان آمریکا توصیه می کند که “خطر بر اساس تاثیر بر افراد تعیین شود.” “یک توصیه ویدئویی ممکن است به اندازه تصمیمات مالی یا سلامتی خطری نداشته باشد.”
محبوبیت روزافزون به اصطلاح هوش مصنوعی مولد، که از داده ها برای ایجاد محتوای جدید مانند نثر انسانی ChatGPT استفاده می کند، این نگرانی را ایجاد کرده است که این فناوری سریع می تواند تقلب در امتحان را تشویق کند، اطلاعات نادرست را تقویت کند و منجر به نسل جدیدی از تقلب شود.
هیاهوی هوش مصنوعی منجر به انبوهی از جلسات، از جمله بازدید مدیران ارشد OpenAI، حامی آن مایکروسافت و رئیس شرکت آلفابت از کاخ سفید در این ماه شده است. جو بایدن با مدیران اجرایی دیدار کرد.
دستیاران کنگره و کارشناسان فنی می گویند که کنگره نیز به همین ترتیب درگیر است.
جک کلارک، یکی از بنیانگذاران استارتآپ برجسته هوش مصنوعی Anthropic، که مدیرعامل آن نیز در جلسه کاخ سفید حضور داشت، گفت: «کارکنان در کل مجلس و سنا اساساً بیدار شدهاند و از همه خواسته میشود تا با این موضوع مبارزه کنند. “مردم می خواهند از هوش مصنوعی پیشی بگیرند، تا حدی به این دلیل که احساس می کنند از رسانه های اجتماعی پیشی نگرفته اند.”
آدام کواچویچ، رئیس خانه پیشرفت فنآوری، گفت: در حالی که قانونگذاران شتاب گرفتهاند، اولویت اصلی فناوری بزرگ مبارزه با «واکنش بیش از حد زودهنگام» است.
و در حالی که قانونگذارانی مانند چاک شومر، رهبر اکثریت سنا، مصمم هستند که مسائل هوش مصنوعی را به روشی دو حزبی حل کنند، واقعیت این است که کنگره دو قطبی شده است، انتخابات ریاستجمهوری سال آینده است و قانونگذاران با مسائل بزرگ دیگری مانند افزایش سقف بدهی سروکار دارند.
طرح پیشنهادی شومر به کارشناسان مستقل نیاز دارد تا فناوریهای هوش مصنوعی جدید را قبل از انتشار آزمایش کنند. او همچنین خواستار شفافیت و دادن اطلاعات مورد نیاز دولت برای جلوگیری از آسیب است.
مدیریت خرد دولتی
رویکرد مبتنی بر ریسک به این معنی است که برای مثال، هوش مصنوعی مورد استفاده برای تشخیص سرطان، تحت نظارت دقیق سازمان غذا و دارو قرار خواهد گرفت، در حالی که هوش مصنوعی برای سرگرمی تنظیم نخواهد شد. اتحادیه اروپا به سمت اتخاذ قوانین مشابه حرکت کرده است.
اما تمرکز بر خطرات برای سناتور دموکرات، مایکل بنت، که لایحهای را ارائه کرده است که خواستار تشکیل کارگروه دولتی در زمینه هوش مصنوعی است، کافی به نظر نمیرسد. او گفت که از “رویکرد مبتنی بر ارزش ها” برای اولویت دادن به حریم خصوصی، آزادی های مدنی و حقوق حمایت می کند.
یکی از دستیاران بنت افزود، قوانین مبتنی بر ریسک ممکن است خیلی سختگیرانه باشند و خطراتی مانند استفاده از هوش مصنوعی برای توصیه ویدیوهایی که برتری سفیدپوستان را تبلیغ میکنند را از دست بدهند.
به گفته فردی که بحثهای کنگره را دنبال میکند و اجازه صحبت با خبرنگاران را نداشت، قانونگذاران همچنین درباره بهترین روش برای اطمینان از عدم استفاده از هوش مصنوعی برای تبعیض نژادی بحث کردهاند، شاید برای تصمیمگیری در مورد اینکه چه کسی وام مسکن با بهره کم دریافت میکند.
کارکنان OpenAI در حال بررسی نظارت گسترده تری هستند.
کالن اوکیف، محقق OpenAI، در یک سخنرانی در ماه آوریل در دانشگاه استنفورد پیشنهاد کرد که آژانسی ایجاد شود که شرکتها را ملزم میکند قبل از آموزش مدلهای قدرتمند هوش مصنوعی یا راهاندازی مراکز دادهای که آنها را تسهیل میکنند مجوز دریافت کنند. اوکیف گفت این آژانس را می توان دفتر ایمنی هوش مصنوعی و امنیت زیرساخت یا OASIS نامید.
میرا موراتی، مدیر ارشد فناوری OpenAI، در پاسخ به سوالی درباره این پیشنهاد، گفت که یک مرجع قابل اعتماد میتواند توسعهدهندگان را در قبال استانداردهای ایمنی «مسئول نگه دارد». اما مهمتر از مکانیک، توافق بر سر این بود که «استانداردها چیست، چه خطراتی را میخواهید کاهش دهید».
آخرین تنظیم کننده بزرگی که ایجاد شد، دفتر حمایت مالی از مصرف کننده بود که پس از بحران مالی 2007-2008 ایجاد شد.
برخی از جمهوری خواهان ممکن است با هرگونه مقررات مربوط به هوش مصنوعی مخالف باشند.
یکی از دستیاران جمهوریخواه سنا به رویترز گفت: «ما باید مراقب باشیم که پیشنهادهای نظارتی برای هوش مصنوعی به مکانیزمی برای مدیریت خرد دولتی کدهای کامپیوتری مانند موتورهای جستجو و الگوریتمها تبدیل نشود.