تکنولوژی

هوش مصنوعی واشنگتن را زیر سوال می برد، اما اجماع هنوز قطعی نیست

قانونگذاران ایالات متحده در حال مبارزه با این هستند که چه نرده هایی را در اطراف هوش مصنوعی در حال رشد قرار دهند، اما ماه ها پس از اینکه ChatGPT توجه واشنگتن را به خود جلب کرد، اجماع چندان قطعی نیست.

مصاحبه با سناتورهای آمریکایی، کارکنان کنگره، شرکت‌های هوش مصنوعی و گروه‌های ذینفع نشان می‌دهد که تعدادی از گزینه‌ها در حال بحث هستند.

این مناظره روز سه‌شنبه، زمانی که سم آلتمن، مدیر عامل OpenAI برای اولین بار در مجلس سنا حاضر می‌شود، در مرکز قرار می‌گیرد.

برخی از پیشنهادات بر روی هوش مصنوعی تمرکز می کنند که می تواند زندگی یا معیشت مردم را در معرض خطر قرار دهد، مانند پزشکی و مالی. سایر احتمالات شامل قوانینی برای اطمینان از عدم استفاده از هوش مصنوعی برای تبعیض یا نقض حقوق مدنی افراد است.

بحث دیگر این است که آیا باید توسعه‌دهنده هوش مصنوعی را تنظیم کرد یا شرکتی که از آن برای تعامل با کاربران استفاده می‌کند. و OpenAI، استارتاپی که پشت چت بات‌های حساس ChatGPT است، یک تنظیم‌کننده هوش مصنوعی مستقل را مورد بحث قرار داده است.

مشخص نیست که کدام رویکرد برنده خواهد شد، اما برخی در جامعه تجاری، از جمله IBM و اتاق بازرگانی ایالات متحده، طرفدار رویکردی هستند که فقط حوزه‌های حیاتی مانند تشخیص‌های پزشکی را تنظیم می‌کند، که آنها آن را رویکرد مبتنی بر ریسک می‌نامند.

جردن کرنشاو از مرکز تعامل فناوری مجلس نمایندگان گفت: اگر کنگره تصمیم بگیرد که به قوانین جدیدی نیاز است، کمیته هوش مصنوعی مجلس نمایندگان آمریکا توصیه می کند که “خطر بر اساس تاثیر بر افراد تعیین شود.” “یک توصیه ویدئویی ممکن است به اندازه تصمیمات مالی یا سلامتی خطری نداشته باشد.”

مطلب پیشنهادی:  مایکروسافت می گوید هکرهای دولت ملی از ChatGPT OpenAI برای تقویت عملیات سایبری استفاده می کنند.

محبوبیت روزافزون به اصطلاح هوش مصنوعی مولد، که از داده ها برای ایجاد محتوای جدید مانند نثر انسانی ChatGPT استفاده می کند، این نگرانی را ایجاد کرده است که این فناوری سریع می تواند تقلب در امتحان را تشویق کند، اطلاعات نادرست را تقویت کند و منجر به نسل جدیدی از تقلب شود.

هیاهوی هوش مصنوعی منجر به انبوهی از جلسات، از جمله بازدید مدیران ارشد OpenAI، حامی آن مایکروسافت و رئیس شرکت آلفابت از کاخ سفید در این ماه شده است. جو بایدن با مدیران اجرایی دیدار کرد.

دستیاران کنگره و کارشناسان فنی می گویند که کنگره نیز به همین ترتیب درگیر است.

جک کلارک، یکی از بنیان‌گذاران استارت‌آپ برجسته هوش مصنوعی Anthropic، که مدیرعامل آن نیز در جلسه کاخ سفید حضور داشت، گفت: «کارکنان در کل مجلس و سنا اساساً بیدار شده‌اند و از همه خواسته می‌شود تا با این موضوع مبارزه کنند. “مردم می خواهند از هوش مصنوعی پیشی بگیرند، تا حدی به این دلیل که احساس می کنند از رسانه های اجتماعی پیشی نگرفته اند.”

آدام کواچویچ، رئیس خانه پیشرفت فن‌آوری، گفت: در حالی که قانون‌گذاران شتاب گرفته‌اند، اولویت اصلی فناوری بزرگ مبارزه با «واکنش بیش از حد زودهنگام» است.

و در حالی که قانون‌گذارانی مانند چاک شومر، رهبر اکثریت سنا، مصمم هستند که مسائل هوش مصنوعی را به روشی دو حزبی حل کنند، واقعیت این است که کنگره دو قطبی شده است، انتخابات ریاست‌جمهوری سال آینده است و قانون‌گذاران با مسائل بزرگ دیگری مانند افزایش سقف بدهی سروکار دارند.

طرح پیشنهادی شومر به کارشناسان مستقل نیاز دارد تا فناوری‌های هوش مصنوعی جدید را قبل از انتشار آزمایش کنند. او همچنین خواستار شفافیت و دادن اطلاعات مورد نیاز دولت برای جلوگیری از آسیب است.

مطلب پیشنهادی:  تامین کننده اپل در هند تولید قطعات ایرپاد را آغاز کرد

مدیریت خرد دولتی

رویکرد مبتنی بر ریسک به این معنی است که برای مثال، هوش مصنوعی مورد استفاده برای تشخیص سرطان، تحت نظارت دقیق سازمان غذا و دارو قرار خواهد گرفت، در حالی که هوش مصنوعی برای سرگرمی تنظیم نخواهد شد. اتحادیه اروپا به سمت اتخاذ قوانین مشابه حرکت کرده است.

اما تمرکز بر خطرات برای سناتور دموکرات، مایکل بنت، که لایحه‌ای را ارائه کرده است که خواستار تشکیل کارگروه دولتی در زمینه هوش مصنوعی است، کافی به نظر نمی‌رسد. او گفت که از “رویکرد مبتنی بر ارزش ها” برای اولویت دادن به حریم خصوصی، آزادی های مدنی و حقوق حمایت می کند.

یکی از دستیاران بنت افزود، قوانین مبتنی بر ریسک ممکن است خیلی سخت‌گیرانه باشند و خطراتی مانند استفاده از هوش مصنوعی برای توصیه ویدیوهایی که برتری سفیدپوستان را تبلیغ می‌کنند را از دست بدهند.

به گفته فردی که بحث‌های کنگره را دنبال می‌کند و اجازه صحبت با خبرنگاران را نداشت، قانون‌گذاران همچنین درباره بهترین روش برای اطمینان از عدم استفاده از هوش مصنوعی برای تبعیض نژادی بحث کرده‌اند، شاید برای تصمیم‌گیری در مورد اینکه چه کسی وام مسکن با بهره کم دریافت می‌کند.

کارکنان OpenAI در حال بررسی نظارت گسترده تری هستند.

کالن اوکیف، محقق OpenAI، در یک سخنرانی در ماه آوریل در دانشگاه استنفورد پیشنهاد کرد که آژانسی ایجاد شود که شرکت‌ها را ملزم می‌کند قبل از آموزش مدل‌های قدرتمند هوش مصنوعی یا راه‌اندازی مراکز داده‌ای که آنها را تسهیل می‌کنند مجوز دریافت کنند. اوکیف گفت این آژانس را می توان دفتر ایمنی هوش مصنوعی و امنیت زیرساخت یا OASIS نامید.

مطلب پیشنهادی:  مردی در چهلمین تلاش به شغل رویایی خود در گوگل دست می یابد!

میرا موراتی، مدیر ارشد فناوری OpenAI، در پاسخ به سوالی درباره این پیشنهاد، گفت که یک مرجع قابل اعتماد می‌تواند توسعه‌دهندگان را در قبال استانداردهای ایمنی «مسئول نگه دارد». اما مهمتر از مکانیک، توافق بر سر این بود که «استانداردها چیست، چه خطراتی را می‌خواهید کاهش دهید».

آخرین تنظیم کننده بزرگی که ایجاد شد، دفتر حمایت مالی از مصرف کننده بود که پس از بحران مالی 2007-2008 ایجاد شد.

برخی از جمهوری خواهان ممکن است با هرگونه مقررات مربوط به هوش مصنوعی مخالف باشند.

یکی از دستیاران جمهوریخواه سنا به رویترز گفت: «ما باید مراقب باشیم که پیشنهادهای نظارتی برای هوش مصنوعی به مکانیزمی برای مدیریت خرد دولتی کدهای کامپیوتری مانند موتورهای جستجو و الگوریتم‌ها تبدیل نشود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا