با افزایش درخواستها برای تنظیم مقررات، لابیگری هوش مصنوعی 185 درصد افزایش مییابد
لابی هوش مصنوعی در سال 2023 با مشارکت بیش از 450 سازمان به اوج جدیدی رسید. بر اساس افشای لابی های فدرال که توسط OpenSecrets به نمایندگی از CNBC تجزیه و تحلیل شده است، این افزایش 185 درصدی نسبت به سال قبل است، زمانی که تنها 158 سازمان این کار را انجام دادند.
افزایش لابیگری هوش مصنوعی در بحبوحه درخواستهای فزاینده برای مقررات هوش مصنوعی و فشار دولت بایدن برای شروع تدوین این قوانین رخ میدهد. شرکتهایی که در سال 2023 شروع به لابیگری کردند تا بتوانند نظری در مورد تأثیر مقررات بر کسبوکارشان داشته باشند، شامل ByteDance مالک TikTok، تسلا، Spotify، Shopify، پینترست، سامسونگ، پالانتیر، Nvidia، دراپ باکس، اینستاکارت، DoorDashAnthropic و OpenAI.
صدها سازمانی که در سال 2023 برای هوش مصنوعی لابی کردند، طیف گسترده ای از استارتاپ های بزرگ فناوری و هوش مصنوعی گرفته تا داروسازی، بیمه، امور مالی، دانشگاهی، مخابرات و غیره را در بر می گرفتند. بر اساس تحلیلها، تا سال ۲۰۱۷، تعداد سازمانهایی که لابیگری هوش مصنوعی را گزارش میکردند، تک رقمی بود، اما این رویه در سالهای پس از آن به آرامی اما مطمئناً رشد کرد و در سال ۲۰۲۳ منفجر شد.
بیش از 330 سازمانی که سال گذشته برای هوش مصنوعی لابی کردند در سال 2022 این کار را انجام ندادند. داده ها نشان می دهد که تعدادی از صنایع به عنوان تازه واردان لابی هوش مصنوعی هستند: شرکت های تراشه مانند AMD و TSMCشرکتهای مخاطرهآمیز مانند Andreessen Horowitz، شرکتهای داروسازی زیستی مانند AstraZeneca، شرکتهایی مانند دیزنیو شرکت های داده آموزش هوش مصنوعی مانند Appen.
سازمانهایی که در سال 2023 در مورد مسائل مرتبط با هوش مصنوعی لابی کردند، معمولاً در مورد طیف وسیعی از موضوعات دیگر نیز با دولت لابی میکردند. طبق گزارش OpenSecrets، در مجموع، آنها بیش از 957 میلیون دلار را برای لابی کردن دولت فدرال در سال 2023 در مورد مسائلی از جمله، اما نه محدود به هوش مصنوعی، هزینه کردند.
در ماه اکتبر، رئیس جمهور جو بایدن فرمان اجرایی در مورد هوش مصنوعی صادر کرد که اولین اقدام دولت ایالات متحده در نوع خود بود که به ارزیابی های ایمنی جدید، دستورالعمل های عدالت و حقوق شهروندی و مطالعه تأثیر هوش مصنوعی بر بازار کار نیاز داشت. این سفارش مؤسسه ملی استانداردها و فناوری وزارت بازرگانی ایالات متحده یا NIST را موظف میکند که دستورالعملهایی را برای ارزیابی برخی مدلهای هوش مصنوعی، از جمله محیطهای آزمایشی برای آنها، تهیه کند و تا حدی مسئول توسعه «استانداردهای مبتنی بر اجماع» برای هوش مصنوعی است.
پس از فاش شدن این فرمان اجرایی، جنجالی از قانونگذاران، گروههای صنعتی، گروههای حقوق مدنی، اتحادیههای کارگری و دیگران شروع به کندوکاو در سند 111 صفحهای کردند و به اولویتها، زمانبندیهای خاص و پیامدهای گسترده این اقدام تاریخی اشاره کردند.
یکی از بحث های مهم بر روی موضوع عدالت هوش مصنوعی متمرکز شده است. بسیاری از رهبران جامعه مدنی در ماه نوامبر به CNBC گفتند که این دستور در شناسایی و رسیدگی به آسیبهای دنیای واقعی ناشی از مدلهای هوش مصنوعی، بهویژه آنهایی که جوامع به حاشیه رانده شده را تحت تأثیر قرار میدهند، به اندازه کافی پیش نمیرود. اما آنها گفتند که این یک اقدام معقول است.
از دسامبر، NIST نظرات عمومی را از مشاغل و افراد در مورد بهترین شکل برای شکل دادن به این قوانین جمع آوری کرده است. دوره نظرات عمومی جمعه به پایان می رسد. در درخواست خود برای اطلاعات، NIST به طور خاص از پاسخدهندگان خواسته است که استانداردهای هوش مصنوعی مسئول، آزمایش سیستمهای هوش مصنوعی برای آسیبپذیریها، مدیریت خطرات هوش مصنوعی مولد، و کمک به کاهش خطر «محتوای مصنوعی»، که شامل اطلاعات نادرست و دروغگویی عمیق است را در نظر بگیرند.
– مری کاترین ولونز و مگان کازلا از CNBC گزارش ارائه کردند.