حتی مایکروسافت فکر می کند که ChatGPT باید تنظیم شود
چت رباتهای هوش مصنوعی (AI) دنیا را طوفانی کرده است، با قابلیتهای ChatGPT مایکروسافت که تقریباً به همان اندازه باعث شگفتی و ترس میشود. اما در یک چرخش جالب، حتی مایکروسافت اکنون از دولتها میخواهد تا قبل از اینکه اوضاع به طور خطرناکی از کنترل خارج شود، اقدام کنند و هوش مصنوعی را تنظیم کنند.
این تماس توسط BSA، یک گروه تجاری که نمایندگی شرکتهای نرمافزار تجاری متعددی از جمله مایکروسافت، ادوبی، دراپ باکس، آیبیام و زوم را به عهده دارد، انجام شد. طبق گزارش CNBC، این گروه از دولت ایالات متحده حمایت می کند تا قوانین مربوط به استفاده از هوش مصنوعی را در قوانین ملی حفظ حریم خصوصی ادغام کند.
به طور خاص، استدلال BSA دارای چهار اصل اصلی است. اینها شامل ادعاهایی است مبنی بر اینکه کنگره باید مشخص کند که شرکتها چه زمانی باید تأثیر بالقوه هوش مصنوعی را تعیین کنند، و این الزامات باید زمانی که استفاده از هوش مصنوعی منجر به «تصمیمگیریهای منسجم» میشود – که کنگره نیز باید آن را تعریف کند، شروع شود.
BSA همچنین بیان می کند که کنگره باید با کمک یک آژانس فدرال موجود از انطباق شرکت اطمینان حاصل کند و توسعه برنامه های مدیریت ریسک باید برای هر شرکتی که درگیر هوش مصنوعی پرخطر است، الزامی باشد.
به گفته کریگ آلبرایت، معاون روابط دولت ایالات متحده در BSA، “ما یک گروه صنعتی هستیم که از کنگره می خواهیم این قانون را تصویب کند، بنابراین ما در تلاش هستیم تا توجه بیشتری را به این امکان جلب کنیم. ما احساس می کنیم که آنقدر که می توانست یا باید مورد توجه قرار نگرفته است.”
BSA معتقد است قانون حریم خصوصی و حفاظت از داده آمریکا، یک لایحه دو حزبی که هنوز به قانون تبدیل نشده است، قانون درستی برای تدوین ایده های خود در مورد مقررات هوش مصنوعی است. این گروه تجاری قبلاً با کمیته انرژی و بازرگانی مجلس – نهادی که اولین بار این لایحه را معرفی کرد – در مورد نظرات خود تماس گرفته است.
قانونگذاری قطعا در راه است
سرعت سرسامآوری که ابزارهای هوش مصنوعی در ماههای اخیر توسعه یافتهاند، نگرانیهایی را در مورد پیامدهای بالقوه برای جامعه و فرهنگ در بسیاری از اقشار ایجاد کرده است و این ترسها به دلیل رسواییها و جنجالهای متعددی که این حوزه را درگیر کرده است، تشدید شده است.
در واقع، BSA اولین نهادی نیست که از تدابیر قوی تر در برابر سوء استفاده از هوش مصنوعی دفاع می کند. در مارس 2023، گروهی از رهبران برجسته فناوری از شرکتهای هوش مصنوعی خواستند که تحقیق در مورد چیزهای پیشرفتهتر از GPT-4 را متوقف کنند. این گروه گفت که این امر ضروری است زیرا «سیستمهای هوش مصنوعی با هوش انسانی و رقابتی میتوانند خطرات جدی برای جامعه و بشریت ایجاد کنند» و جامعه بهعنوان یک کل نیاز دارد که پیشرفت هوش مصنوعی برای آینده تمدن چه معنایی داشته باشد.
واضح است که سرعت توسعه ابزارهای هوش مصنوعی باعث نگرانی بسیاری در بین رهبران صنعت و عموم مردم شده است. و حتی با توجه به پیشنهاد مایکروسافت برای نظارت بر محصولات هوش مصنوعی، به نظر می رسد به طور فزاینده ای احتمال دارد که برخی از قوانین هوش مصنوعی زودتر به قانون تبدیل شود.
توصیه های سردبیران