تکنولوژی

با افزایش درخواست‌ها برای تنظیم مقررات، لابی‌گری هوش مصنوعی 185 درصد افزایش می‌یابد

تلاش‌های لابی‌گری هوش مصنوعی در سال 2023 رکورد زد: آنچه باید بدانید در اینجا آمده است

لابی هوش مصنوعی در سال 2023 با مشارکت بیش از 450 سازمان به اوج جدیدی رسید. بر اساس افشای لابی های فدرال که توسط OpenSecrets به نمایندگی از CNBC تجزیه و تحلیل شده است، این افزایش 185 درصدی نسبت به سال قبل است، زمانی که تنها 158 سازمان این کار را انجام دادند.

افزایش لابی‌گری هوش مصنوعی در بحبوحه درخواست‌های فزاینده برای مقررات هوش مصنوعی و فشار دولت بایدن برای شروع تدوین این قوانین رخ می‌دهد. شرکت‌هایی که در سال 2023 شروع به لابی‌گری کردند تا بتوانند نظری در مورد تأثیر مقررات بر کسب‌وکارشان داشته باشند، شامل ByteDance مالک TikTok، تسلا، Spotify، Shopify، پینترست، سامسونگ، پالانتیر، Nvidia، دراپ باکس، اینستاکارت، DoorDashAnthropic و OpenAI.

صدها سازمانی که در سال 2023 برای هوش مصنوعی لابی کردند، طیف گسترده ای از استارتاپ های بزرگ فناوری و هوش مصنوعی گرفته تا داروسازی، بیمه، امور مالی، دانشگاهی، مخابرات و غیره را در بر می گرفتند. بر اساس تحلیل‌ها، تا سال ۲۰۱۷، تعداد سازمان‌هایی که لابی‌گری هوش مصنوعی را گزارش می‌کردند، تک رقمی بود، اما این رویه در سال‌های پس از آن به آرامی اما مطمئناً رشد کرد و در سال ۲۰۲۳ منفجر شد.

بیش از 330 سازمانی که سال گذشته برای هوش مصنوعی لابی کردند در سال 2022 این کار را انجام ندادند. داده ها نشان می دهد که تعدادی از صنایع به عنوان تازه واردان لابی هوش مصنوعی هستند: شرکت های تراشه مانند AMD و TSMCشرکت‌های مخاطره‌آمیز مانند Andreessen Horowitz، شرکت‌های داروسازی زیستی مانند AstraZeneca، شرکت‌هایی مانند دیزنیو شرکت های داده آموزش هوش مصنوعی مانند Appen.

مطلب پیشنهادی:  ناسا می گوید سیارکی به اندازه یک خانه به زودی از کنار زمین می گذرد. بدانید چقدر نزدیک خواهد شد

سازمان‌هایی که در سال 2023 در مورد مسائل مرتبط با هوش مصنوعی لابی کردند، معمولاً در مورد طیف وسیعی از موضوعات دیگر نیز با دولت لابی می‌کردند. طبق گزارش OpenSecrets، در مجموع، آنها بیش از 957 میلیون دلار را برای لابی کردن دولت فدرال در سال 2023 در مورد مسائلی از جمله، اما نه محدود به هوش مصنوعی، هزینه کردند.

در ماه اکتبر، رئیس جمهور جو بایدن فرمان اجرایی در مورد هوش مصنوعی صادر کرد که اولین اقدام دولت ایالات متحده در نوع خود بود که به ارزیابی های ایمنی جدید، دستورالعمل های عدالت و حقوق شهروندی و مطالعه تأثیر هوش مصنوعی بر بازار کار نیاز داشت. این سفارش مؤسسه ملی استانداردها و فناوری وزارت بازرگانی ایالات متحده یا NIST را موظف می‌کند که دستورالعمل‌هایی را برای ارزیابی برخی مدل‌های هوش مصنوعی، از جمله محیط‌های آزمایشی برای آنها، تهیه کند و تا حدی مسئول توسعه «استانداردهای مبتنی بر اجماع» برای هوش مصنوعی است.

پس از فاش شدن این فرمان اجرایی، جنجالی از قانون‌گذاران، گروه‌های صنعتی، گروه‌های حقوق مدنی، اتحادیه‌های کارگری و دیگران شروع به کندوکاو در سند 111 صفحه‌ای کردند و به اولویت‌ها، زمان‌بندی‌های خاص و پیامدهای گسترده این اقدام تاریخی اشاره کردند.

یکی از بحث های مهم بر روی موضوع عدالت هوش مصنوعی متمرکز شده است. بسیاری از رهبران جامعه مدنی در ماه نوامبر به CNBC گفتند که این دستور در شناسایی و رسیدگی به آسیب‌های دنیای واقعی ناشی از مدل‌های هوش مصنوعی، به‌ویژه آن‌هایی که جوامع به حاشیه رانده شده را تحت تأثیر قرار می‌دهند، به اندازه کافی پیش نمی‌رود. اما آنها گفتند که این یک اقدام معقول است.

مطلب پیشنهادی:  ماسک، دانشمندان خواستار پایان دادن به مسابقه هوش مصنوعی هستند که توسط ChatGPT آغاز شده است

از دسامبر، NIST نظرات عمومی را از مشاغل و افراد در مورد بهترین شکل برای شکل دادن به این قوانین جمع آوری کرده است. دوره نظرات عمومی جمعه به پایان می رسد. در درخواست خود برای اطلاعات، NIST به طور خاص از پاسخ‌دهندگان خواسته است که استانداردهای هوش مصنوعی مسئول، آزمایش سیستم‌های هوش مصنوعی برای آسیب‌پذیری‌ها، مدیریت خطرات هوش مصنوعی مولد، و کمک به کاهش خطر «محتوای مصنوعی»، که شامل اطلاعات نادرست و دروغ‌گویی عمیق است را در نظر بگیرند.

مری کاترین ولونز و مگان کازلا از CNBC گزارش ارائه کردند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا