اولین تلاش های عمده برای تنظیم هوش مصنوعی از هر طرف با باد مخالف روبرو است
دنور – هوش مصنوعی به تصمیم گیری در مورد اینکه کدام آمریکایی ها مصاحبه شغلی، آپارتمانی، حتی مراقبت های پزشکی را دریافت می کنند، کمک می کند، اما اولین پیشنهادهای بزرگ برای حاکمیت تعصب در تصمیم گیری هوش مصنوعی از همه جهت با باد مخالف روبرو هستند.
قانونگذارانی که روی این لایحه ها در ایالت های کلرادو، کانکتیکات و تگزاس کار می کنند، روز پنجشنبه گرد هم می آیند تا پیشنهادات خود را مطرح کنند، زیرا گروه های حقوق مدنی و صنعت بر سر اجزای اصلی این قانون مبارزه می کنند.
سازمانها، از جمله اتحادیههای کارگری و گروههای حمایت از مصرفکننده، بر شفافیت بیشتر شرکتها و حمایتهای قانونی بیشتر از شهروندان برای شکایت به دلیل تبعیض هوش مصنوعی فشار میآورند. صنعت پشتیبانی موقت ارائه میکند، اما به رسیدگی به این اقدامات پاسخگویی ادامه میدهد.
قانونگذاران دو حزبی که در این میان گیر افتاده اند – از جمله نمایندگان آلاسکا، جورجیا و ویرجینیا – در مواجهه با انفعال دولت فدرال بر روی قوانین هوش مصنوعی کار می کنند. هدف از کنفرانس مطبوعاتی برجسته کردن کار آنها در بین کشورها و ذینفعان، برجسته کردن اهمیت همکاری و سازش در اولین گام در مقررات است.
این قانونگذاران شامل جیمز مارونی سناتور دموکرات کانکتیکات، رابرت رودریگز رهبر اکثریت دموکرات سنای کلرادو و شلی هیوز سناتور جمهوریخواه آلاسکا هستند.
در این مرحله، ما به دولت فدرال برای تصویب سریع چیزی اعتماد نداریم. و ما می بینیم که نیاز به مقررات وجود دارد، مارونی گفت: “این مهم است که طرفداران صنعت، دولت و دانشگاه با یکدیگر همکاری کنند تا بهترین مقررات و قوانین ممکن را به دست آورند.”
قانونگذاران می گویند که این لوایح اولین گامی است که می توان در ادامه راه ساخت.
اگرچه بیش از 400 لایحه مرتبط با هوش مصنوعی در سال جاری در موسسات دولتی در سراسر کشور مورد بحث قرار گرفته است، اما بیشتر آنها یک صنعت واحد یا فقط بخشی از فناوری را هدف قرار می دهند – مانند تصاویر عمیق جعلی مورد استفاده در انتخابات یا برای ایجاد تصاویر مستهجن.
بزرگترین لوایح پیشنهادی توسط این تیم از قانونگذاران، چارچوب وسیعی را برای نظارت، به ویژه در مورد یکی از منحرفترین معضلات فناوری: تبعیض هوش مصنوعی، ارائه میکند. به عنوان مثال می توان به هوش مصنوعی اشاره کرد که در رتبه بندی دقیق بیماران پزشکی سیاه پوست ناموفق بود و دیگری که رزومه زنان را در حین فیلتر کردن درخواست های شغلی کاهش داد.
با این حال، طبق برآورد کمیسیون فرصت های شغلی برابر، تا 83 درصد از کارفرمایان از الگوریتم هایی برای کمک به استخدام استفاده می کنند.
سورش ونکاتاسوبرامانیان، استاد علوم کامپیوتر و علوم داده در دانشگاه براون که کلاسی را در زمینه کاهش تعصب در طراحی این الگوریتم ها تدریس می کند، توضیح داد: اگر کاری انجام نشود، تقریباً همیشه در این سیستم های هوش مصنوعی تعصب وجود خواهد داشت.
او گفت: “شما باید کاری را به طور خاص انجام دهید تا در وهله اول تعصب نداشته باشید.”
این پیشنهادات، عمدتاً در کلرادو و کانکتیکات، پیچیده هستند، اما اصل این است که شرکتها ملزم به انجام «ارزیابی تأثیر» برای سیستمهای هوش مصنوعی خاص هستند. این گزارشها شامل توضیحاتی در مورد چگونگی شکلدهی هوش مصنوعی به یک راهحل، دادههای جمعآوریشده و تجزیه و تحلیل خطرات تبعیض، همراه با توضیحی درباره پادمانهای شرکت خواهد بود.
بحث اصلی این است که چه کسی می تواند این گزارش ها را ببیند. دسترسی بیشتر به اطلاعات مربوط به سیستم های هوش مصنوعی، مانند ارزیابی تاثیر، به معنای مسئولیت پذیری و ایمنی بیشتر برای عموم است. اما شرکتها نگران هستند که خطر شکایت و افشای اسرار تجاری را نیز افزایش دهد.
طبق لوایح در کلرادو، کانکتیکات و کالیفرنیا، این شرکت مجبور نیست به طور معمول ارزیابیهای تاثیر را به دولت ارائه دهد. این بار نیز تا حد زیادی بر دوش شرکتها خواهد بود که در صورت مشاهده تبعیض، این سیستمهای هوش مصنوعی را برای سوگیری آزمایش نمیکنند.
اتحادیهها و دانشگاهیان نگران هستند که اتکای بیش از حد به گزارشدهی خود شرکتها، توانایی جامعه یا دولت را در تشخیص تبعیض هوش مصنوعی قبل از اینکه آسیبی وارد کند، تهدید میکند.
کیورستن فورست، نماینده کلرادو AFL-CIO، فدراسیون اتحادیهای که با لایحه کلرادو مخالف است، میگوید: «وقتی این شرکتهای عظیم میلیارد دلاری دارید، کار دشواری است. اساساً، شما به آنها یک جهش اضافی برای فشار دادن به کارگر یا مصرف کننده می دهید.
شرکت های فناوری می گویند شفافیت بیشتر اسرار تجاری را در بازار پررقابت امروزی فاش می کند. دیوید ادمونسون از TechNet، یک شبکه دو حزبی متشکل از مدیران اجرایی فناوری و مدیران ارشد که برای لایحههای هوش مصنوعی لابی میکنند، در بیانیهای گفت که این سازمان با قانونگذاران کار میکند تا “اطمینان حاصل شود که هر قانونی با خطر هوش مصنوعی مقابله میکند و در عین حال امکان شکوفایی نوآوری را فراهم میکند”.
اتاق بازرگانی کالیفرنیا با این لایحه آن ایالت مخالفت میکند، زیرا نگران این است که ارزیابیهای تأثیر ممکن است در دعوای قضایی عمومی شود.
یکی دیگر از مولفه های بحث برانگیز لوایح این است که چه کسی می تواند طبق قانون شکایت کند، که لوایح معمولاً به جای شهروندان، به دادستان های کل و سایر وکلای ایالتی محدود می شود.
پس از حذف ماده ای در لایحه کالیفرنیا که به شهروندان اجازه دادخواهی داد، Workday، یک شرکت نرم افزاری مالی و منابع انسانی، این پیشنهاد را تایید کرد. Workday استدلال کرد که دعاوی مدنی توسط شهروندان تصمیم گیری را به قضات واگذار می کند که بسیاری از آنها متخصص فنی نیستند و می تواند منجر به رویکردی متناقض در مقررات شود.
چندلر مورس، معاون رئیسجمهور میگوید: «ما نمیتوانیم مانع از بافته شدن هوش مصنوعی در زندگی روزمرهمان شویم، بنابراین بدیهی است که دولت باید در نقطهای وارد عمل شود، اما منطقی است که صنعت خود محیطی مناسب برای پیشرفت میخواهد». سیاست های عمومی و امور شرکتی در روز کاری
سورل فریدلر، استادی که در کالج هاورفورد بر روی تعصب هوش مصنوعی تمرکز می کند، عقب نشینی می کند.
فریدلر میگوید: «به طور کلی جامعه آمریکایی حقوق خود را با طرح دعوی حقوقی به دست میآورد.
سناتور مارونی از کانکتیکات گفت که مقالههایی مبنی بر اینکه او و نماینده جیووانی کاپریگلیونه، نماینده تگزاس، علیرغم تمام پولی که صنعت برای لابیگری علیه این قانون خرج کرده است، «لوایحهای نوشتهشده در صنعت را تحت فشار قرار میدهند، مخالفت میکند».
مارونی خاطرنشان کرد که یک گروه صنعتی، انجمن فناوری مصرف کننده، تبلیغاتی را منتشر کرده و یک وب سایت ایجاد کرده و از قانونگذاران خواسته است که این قانون را لغو کنند.
“من معتقدم که ما در مسیر درستی هستیم. ما با افرادی از صنعت، دانشگاه و جامعه مدنی همکاری کردهایم.»
او افزود: «همه می خواهند احساس امنیت کنند و ما در حال ایجاد مقرراتی هستیم که هوش مصنوعی ایمن و قابل اعتماد را فعال می کند.
_____
خبرنگاران آسوشیتدپرس، تران نگوین از ساکرامنتو، کالیفرنیا، بکی بورر از جونو، آلاسکا، سوزان هی از هارتفورد، کانکتیکات، مشارکت کردند.
بدین یکی از اعضای سپاه Associated Press/Report for America Statehouse News Initiative است. America Report یک برنامه ملی غیرانتفاعی است که خبرنگاران را در اتاق های خبری محلی قرار می دهد تا در مورد مسائل مخفی گزارش دهند.
این مقاله از یک فید خبرگزاری خودکار و بدون تغییر متن تولید شده است.