تکنولوژی

اولین تلاش های عمده برای تنظیم هوش مصنوعی از هر طرف با باد مخالف روبرو است

دنور – هوش مصنوعی به تصمیم گیری در مورد اینکه کدام آمریکایی ها مصاحبه شغلی، آپارتمانی، حتی مراقبت های پزشکی را دریافت می کنند، کمک می کند، اما اولین پیشنهادهای بزرگ برای حاکمیت تعصب در تصمیم گیری هوش مصنوعی از همه جهت با باد مخالف روبرو هستند.

قانونگذارانی که روی این لایحه ها در ایالت های کلرادو، کانکتیکات و تگزاس کار می کنند، روز پنجشنبه گرد هم می آیند تا پیشنهادات خود را مطرح کنند، زیرا گروه های حقوق مدنی و صنعت بر سر اجزای اصلی این قانون مبارزه می کنند.

سازمان‌ها، از جمله اتحادیه‌های کارگری و گروه‌های حمایت از مصرف‌کننده، بر شفافیت بیشتر شرکت‌ها و حمایت‌های قانونی بیشتر از شهروندان برای شکایت به دلیل تبعیض هوش مصنوعی فشار می‌آورند. صنعت پشتیبانی موقت ارائه می‌کند، اما به رسیدگی به این اقدامات پاسخگویی ادامه می‌دهد.

قانونگذاران دو حزبی که در این میان گیر افتاده اند – از جمله نمایندگان آلاسکا، جورجیا و ویرجینیا – در مواجهه با انفعال دولت فدرال بر روی قوانین هوش مصنوعی کار می کنند. هدف از کنفرانس مطبوعاتی برجسته کردن کار آنها در بین کشورها و ذینفعان، برجسته کردن اهمیت همکاری و سازش در اولین گام در مقررات است.

این قانونگذاران شامل جیمز مارونی سناتور دموکرات کانکتیکات، رابرت رودریگز رهبر اکثریت دموکرات سنای کلرادو و شلی هیوز سناتور جمهوریخواه آلاسکا هستند.

در این مرحله، ما به دولت فدرال برای تصویب سریع چیزی اعتماد نداریم. و ما می بینیم که نیاز به مقررات وجود دارد، مارونی گفت: “این مهم است که طرفداران صنعت، دولت و دانشگاه با یکدیگر همکاری کنند تا بهترین مقررات و قوانین ممکن را به دست آورند.”

قانونگذاران می گویند که این لوایح اولین گامی است که می توان در ادامه راه ساخت.

اگرچه بیش از 400 لایحه مرتبط با هوش مصنوعی در سال جاری در موسسات دولتی در سراسر کشور مورد بحث قرار گرفته است، اما بیشتر آنها یک صنعت واحد یا فقط بخشی از فناوری را هدف قرار می دهند – مانند تصاویر عمیق جعلی مورد استفاده در انتخابات یا برای ایجاد تصاویر مستهجن.

مطلب پیشنهادی:  ChatGPT می تواند گفتار فدرال رزرو را رمزگشایی کند، حرکت سهام را از سرفصل ها پیش بینی کند

بزرگترین لوایح پیشنهادی توسط این تیم از قانونگذاران، چارچوب وسیعی را برای نظارت، به ویژه در مورد یکی از منحرف‌ترین معضلات فناوری: تبعیض هوش مصنوعی، ارائه می‌کند. به عنوان مثال می توان به هوش مصنوعی اشاره کرد که در رتبه بندی دقیق بیماران پزشکی سیاه پوست ناموفق بود و دیگری که رزومه زنان را در حین فیلتر کردن درخواست های شغلی کاهش داد.

با این حال، طبق برآورد کمیسیون فرصت های شغلی برابر، تا 83 درصد از کارفرمایان از الگوریتم هایی برای کمک به استخدام استفاده می کنند.

سورش ونکاتاسوبرامانیان، استاد علوم کامپیوتر و علوم داده در دانشگاه براون که کلاسی را در زمینه کاهش تعصب در طراحی این الگوریتم ها تدریس می کند، توضیح داد: اگر کاری انجام نشود، تقریباً همیشه در این سیستم های هوش مصنوعی تعصب وجود خواهد داشت.

او گفت: “شما باید کاری را به طور خاص انجام دهید تا در وهله اول تعصب نداشته باشید.”

این پیشنهادات، عمدتاً در کلرادو و کانکتیکات، پیچیده هستند، اما اصل این است که شرکت‌ها ملزم به انجام «ارزیابی تأثیر» برای سیستم‌های هوش مصنوعی خاص هستند. این گزارش‌ها شامل توضیحاتی در مورد چگونگی شکل‌دهی هوش مصنوعی به یک راه‌حل، داده‌های جمع‌آوری‌شده و تجزیه و تحلیل خطرات تبعیض، همراه با توضیحی درباره پادمان‌های شرکت خواهد بود.

بحث اصلی این است که چه کسی می تواند این گزارش ها را ببیند. دسترسی بیشتر به اطلاعات مربوط به سیستم های هوش مصنوعی، مانند ارزیابی تاثیر، به معنای مسئولیت پذیری و ایمنی بیشتر برای عموم است. اما شرکت‌ها نگران هستند که خطر شکایت و افشای اسرار تجاری را نیز افزایش دهد.

مطلب پیشنهادی:  ایلان ماسک به انیشتین، Character.ai به شما امکان می دهد با نسخه های چت بات افراد مشهور صحبت کنید

طبق لوایح در کلرادو، کانکتیکات و کالیفرنیا، این شرکت مجبور نیست به طور معمول ارزیابی‌های تاثیر را به دولت ارائه دهد. این بار نیز تا حد زیادی بر دوش شرکت‌ها خواهد بود که در صورت مشاهده تبعیض، این سیستم‌های هوش مصنوعی را برای سوگیری آزمایش نمی‌کنند.

اتحادیه‌ها و دانشگاهیان نگران هستند که اتکای بیش از حد به گزارش‌دهی خود شرکت‌ها، توانایی جامعه یا دولت را در تشخیص تبعیض هوش مصنوعی قبل از اینکه آسیبی وارد کند، تهدید می‌کند.

کیورستن فورست، نماینده کلرادو AFL-CIO، فدراسیون اتحادیه‌ای که با لایحه کلرادو مخالف است، می‌گوید: «وقتی این شرکت‌های عظیم میلیارد دلاری دارید، کار دشواری است. اساساً، شما به آنها یک جهش اضافی برای فشار دادن به کارگر یا مصرف کننده می دهید.

شرکت های فناوری می گویند شفافیت بیشتر اسرار تجاری را در بازار پررقابت امروزی فاش می کند. دیوید ادمونسون از TechNet، یک شبکه دو حزبی متشکل از مدیران اجرایی فناوری و مدیران ارشد که برای لایحه‌های هوش مصنوعی لابی می‌کنند، در بیانیه‌ای گفت که این سازمان با قانون‌گذاران کار می‌کند تا “اطمینان حاصل شود که هر قانونی با خطر هوش مصنوعی مقابله می‌کند و در عین حال امکان شکوفایی نوآوری را فراهم می‌کند”.

اتاق بازرگانی کالیفرنیا با این لایحه آن ایالت مخالفت می‌کند، زیرا نگران این است که ارزیابی‌های تأثیر ممکن است در دعوای قضایی عمومی شود.

یکی دیگر از مولفه های بحث برانگیز لوایح این است که چه کسی می تواند طبق قانون شکایت کند، که لوایح معمولاً به جای شهروندان، به دادستان های کل و سایر وکلای ایالتی محدود می شود.

پس از حذف ماده ای در لایحه کالیفرنیا که به شهروندان اجازه دادخواهی داد، Workday، یک شرکت نرم افزاری مالی و منابع انسانی، این پیشنهاد را تایید کرد. Workday استدلال کرد که دعاوی مدنی توسط شهروندان تصمیم گیری را به قضات واگذار می کند که بسیاری از آنها متخصص فنی نیستند و می تواند منجر به رویکردی متناقض در مقررات شود.

مطلب پیشنهادی:  تصاویر نژادی ناقص هوش مصنوعی Google Gemini به عنوان هشداری در مورد قدرت غول‌های فناوری تلقی می‌شود.

چندلر مورس، معاون رئیس‌جمهور می‌گوید: «ما نمی‌توانیم مانع از بافته شدن هوش مصنوعی در زندگی روزمره‌مان شویم، بنابراین بدیهی است که دولت باید در نقطه‌ای وارد عمل شود، اما منطقی است که صنعت خود محیطی مناسب برای پیشرفت می‌خواهد». سیاست های عمومی و امور شرکتی در روز کاری

سورل فریدلر، استادی که در کالج هاورفورد بر روی تعصب هوش مصنوعی تمرکز می کند، عقب نشینی می کند.

فریدلر می‌گوید: «به طور کلی جامعه آمریکایی حقوق خود را با طرح دعوی حقوقی به دست می‌آورد.

سناتور مارونی از کانکتیکات گفت که مقاله‌هایی مبنی بر اینکه او و نماینده جیووانی کاپریگلیونه، نماینده تگزاس، علی‌رغم تمام پولی که صنعت برای لابی‌گری علیه این قانون خرج کرده است، «لوایح‌های نوشته‌شده در صنعت را تحت فشار قرار می‌دهند، مخالفت می‌کند».

مارونی خاطرنشان کرد که یک گروه صنعتی، انجمن فناوری مصرف کننده، تبلیغاتی را منتشر کرده و یک وب سایت ایجاد کرده و از قانونگذاران خواسته است که این قانون را لغو کنند.

“من معتقدم که ما در مسیر درستی هستیم. ما با افرادی از صنعت، دانشگاه و جامعه مدنی همکاری کرده‌ایم.»

او افزود: «همه می خواهند احساس امنیت کنند و ما در حال ایجاد مقرراتی هستیم که هوش مصنوعی ایمن و قابل اعتماد را فعال می کند.

_____

خبرنگاران آسوشیتدپرس، تران نگوین از ساکرامنتو، کالیفرنیا، بکی بورر از جونو، آلاسکا، سوزان هی از هارتفورد، کانکتیکات، مشارکت کردند.

بدین یکی از اعضای سپاه Associated Press/Report for America Statehouse News Initiative است. America Report یک برنامه ملی غیرانتفاعی است که خبرنگاران را در اتاق های خبری محلی قرار می دهد تا در مورد مسائل مخفی گزارش دهند.

این مقاله از یک فید خبرگزاری خودکار و بدون تغییر متن تولید شده است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا