تکنولوژی

با افزایش محبوبیت ChatGPT، قانونگذاران ایالات متحده علاقه مند شده اند

ChatGPT، یک برنامه هوش مصنوعی که به سرعت در حال رشد است، به دلیل توانایی خود در نوشتن سریع پاسخ به طیف گسترده ای از سؤالات مورد تحسین قرار گرفته است و توجه قانونگذاران ایالات متحده را با سؤالاتی در مورد تأثیر آن بر امنیت ملی و آموزش به خود جلب کرده است.

اعتقاد بر این است که ChatGPT تنها دو ماه پس از راه‌اندازی به ۱۰۰ میلیون کاربر فعال ماهانه رسیده است و آن را به سریع‌ترین برنامه مصرف‌کننده در تاریخ و هدف رو به رشدی برای مقررات تبدیل می‌کند.

این توسط OpenAI، یک شرکت خصوصی تحت حمایت مایکروسافت ایجاد شد و به صورت رایگان در دسترس عموم قرار گرفت. فراگیر بودن آن این نگرانی را ایجاد کرده است که هوش مصنوعی مولد مانند ChatGPT می تواند برای انتشار اطلاعات نادرست استفاده شود، در حالی که معلمان نگران هستند که دانش آموزان از آن برای تقلب استفاده کنند.

تد لیو، نماینده دموکرات در کمیته علمی مجلس نمایندگان آمریکا، در یک مقاله نظری اخیر در نیویورک تایمز گفت که در مورد هوش مصنوعی و “راه های باورنکردنی برای پیشرفت جامعه” هیجان زده است، اما همچنین “از هوش مصنوعی وحشت دارد، به ویژه از هوش مصنوعی وحشت دارد. هوش مصنوعی که کنترل نشده و تنظیم نشده باقی مانده است.”

لیو قطعنامه ای را ارائه کرد که توسط ChatGPT نوشته شده بود که می گوید کنگره باید بر روی هوش مصنوعی تمرکز کند تا اطمینان حاصل شود که توسعه و استقرار هوش مصنوعی به روشی ایمن، اخلاقی و با احترام به حقوق و حریم خصوصی همه آمریکایی ها انجام می شود و مزایای آن هوش مصنوعی گسترده است و خطرات آن به حداقل می رسد.”

مطلب پیشنهادی:  تغییر آب و هوا: اپل از تامین کنندگان می خواهد که جنبش انرژی پاک خود را کربن زدایی کنند

به گفته دستیاران قانونگذار دموکرات، در ژانویه، سام آلتمن، مدیر عامل OpenAI به کاپیتول هیل رفت و در آنجا با قانونگذاران متفکر فناوری مانند سناتورهای مارک وارنر، ران وایدن و ریچارد بلومنتال و نماینده جیک اوچینکلاس دیدار کرد.

یکی از دستیاران وایدن گفت که قانونگذار آلتمن را تحت فشار قرار داده است که باید مطمئن شود هوش مصنوعی دارای تعصباتی نیست که منجر به تبعیض در دنیای واقعی شود، مانند مسکن یا شغل.

کیت چو، دستیار وایدن گفت: «در حالی که سناتور وایدن معتقد است که هوش مصنوعی پتانسیل فوق‌العاده‌ای برای سرعت بخشیدن به نوآوری و تحقیق دارد، او تمرکز لیزری بر این دارد که سیستم‌های خودکار تبعیض را در این فرآیند خودکار نکنند.»

یکی از دستیاران کنگره، بحث را بر روی سرعت تغییر در هوش مصنوعی و نحوه استفاده از آن متمرکز کرد.

به گزارش رسانه ها، ChatGPT به دلیل نگرانی های سرقت ادبی، اکنون در مدارس نیویورک و سیاتل ممنوع شده است. یکی از دستیاران کنگره گفت که نگرانی هایی که از رای دهندگان می شنوند عمدتاً از مربیان متمرکز بر تقلب ناشی می شود.

OpenAI در بیانیه ای گفت: “ما نمی خواهیم ChatGPT برای اهداف گمراه کننده در مدارس یا هر جای دیگری استفاده شود، بنابراین ما در حال توسعه اقدامات کاهشی برای کمک به هر کسی برای شناسایی متن تولید شده توسط این سیستم هستیم.”

میرا موراتی، مدیر ارشد فناوری OpenAI در مصاحبه با تایم گفت که این شرکت از نظرات تنظیم‌کننده‌ها و دولت‌ها استقبال می‌کند. او گفت: «هنوز زود نیست (برای اینکه تنظیم‌کننده‌ها وارد این موضوع شوند).

مطلب پیشنهادی:  ابزار هوش مصنوعی به تصحیح معاملات اشتباه کمک می کند در حالی که به زمان های تسویه سریع تر می روید

اندرو برت، شریک مدیریتی BNH.AI، یک شرکت حقوقی متمرکز بر مسئولیت هوش مصنوعی، به نگرانی‌های امنیت ملی اشاره کرد و افزود که با قانون‌گذارانی که در حال بررسی این هستند که آیا ChatGPT و سیستم‌های هوش مصنوعی مشابه مانند Google Bard را تنظیم کنند یا خیر صحبت کرده است. او نتوانست نام آنها را فاش کند.

او گفت: «کلیه ارزش پیشنهادی این نوع سیستم‌های هوش مصنوعی این است که می‌توانند محتوا را با مقیاس‌ها و سرعت‌هایی تولید کنند که انسان‌ها نمی‌توانند.»

من از بازیگران بدخواه، بازیگران غیردولتی و بازیگران دولتی که دارای منافع خصمانه با ایالات متحده هستند انتظار دارم از این سیستم ها برای تولید اطلاعاتی استفاده کنند که ممکن است اشتباه یا مضر باشد.”

خود ChatGPT وقتی از خود پرسیده شد که چگونه باید تنظیم شود، مخالفت کرد و گفت: “به عنوان یک مدل زبانی خنثی از هوش مصنوعی، من هیچ موضعی در مورد قوانین خاصی که ممکن است برای تنظیم سیستم های هوش مصنوعی مانند خودم معرفی شوند یا نباشند” ندارم. فهرست کردن زمینه‌های بالقوه تمرکز برای تنظیم‌کننده‌ها مانند حریم خصوصی داده‌ها، تعصب و انصاف و شفافیت در نحوه نگارش پاسخ‌ها.


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا