تکنولوژی

بایدن با مدیران اجرایی مایکروسافت و گوگل در مورد خطرات هوش مصنوعی ملاقات کرد

پرزیدنت جو بایدن روز پنجشنبه در جلسه کاخ سفید با مدیران عامل شرکت های پیشرو هوش مصنوعی، از جمله گوگل و مایکروسافت شرکت آلفابت، شرکت کرد تا در مورد خطرات و پادمان ها با توجه به این که این فناوری توجه دولت ها و قانونگذاران سراسر جهان را به خود جلب می کند، گفتگو کرد.

هوش مصنوعی مولد امسال به یک کلمه کلیدی تبدیل شده است، با اپلیکیشن‌هایی مانند ChatGPT که تصورات عمومی را به خود جلب می‌کند و باعث هجوم شرکت‌ها برای عرضه محصولات مشابهی می‌شود که به اعتقاد آنها ماهیت کار را تغییر می‌دهد.

میلیون‌ها کاربر آزمایش چنین ابزارهایی را آغاز کرده‌اند که به گفته طرفداران آن می‌تواند تشخیص‌های پزشکی، نوشتن اسکریپت، ایجاد اعلامیه‌های قانونی و اشکال‌زدایی نرم‌افزار را انجام دهد، که منجر به نگرانی فزاینده در مورد اینکه چگونه این فناوری می‌تواند منجر به نقض محرمانه‌بودن، تحریف تصمیم‌های استخدامی و کلاهبرداری از قدرت شود و کمپین های اطلاعات نادرست

یک مقام کاخ سفید به رویترز گفت، بایدن، که در این نشست شرکت کرد، از ChatGPT نیز استفاده کرد. این مقام که خواست نامش فاش نشود، گفت: «او کاملاً در مورد ChatGPT توضیح داده شد و (در حال آزمایش آن بود».

جلسه دو ساعته پنجشنبه که در ساعت 11:45 صبح به وقت شرقی (1545 به وقت گرینویچ) آغاز شد، شامل ساندار پیچای گوگل، ساتیا نادلا از شرکت مایکروسافت، سام آلتمن از OpenAI و داریو آمودی از Anthropic، به همراه کامالا هریس معاون رئیس جمهور و مقامات دولت از جمله رئیس بایدن بود. از کارکنان جف زینتز، مشاور امنیت ملی جیک سالیوان، مدیر شورای اقتصاد ملی لائل برینارد و وزیر بازرگانی جینا ریموندو.

مطلب پیشنهادی:  Kyra، اولین اینفلوئنسر مجازی هند با اولین تبلیغ از 20 میلیون فالوور اینستاگرام عبور کرد.

هریس در بیانیه ای گفت که این فناوری پتانسیل بهبود زندگی را دارد، اما می تواند نگرانی های ایمنی، حریم خصوصی و حقوق مدنی را افزایش دهد. او به مدیران اجرایی گفت که آنها “مسئولیت قانونی” دارند تا از ایمنی محصولات هوش مصنوعی خود اطمینان حاصل کنند و دولت آماده پیشبرد مقررات جدید و حمایت از قوانین جدید هوش مصنوعی است.

قبل از این جلسه، آلتمن از OpenAI به خبرنگاران گفت که کاخ سفید می‌خواهد “آن را به درستی انجام دهد.”

او در پاسخ به این سوال که آیا کاخ سفید به اندازه کافی در زمینه مقررات هوش مصنوعی حرکت می کند، گفت: «این خوب است که سعی کنیم از آن جلوتر برویم. مطمئناً یک چالش خواهد بود، اما من مطمئن هستم که می توانیم آن را انجام دهیم.

دولت همچنین از سرمایه‌گذاری 140 میلیون دلاری بنیاد ملی علوم برای راه‌اندازی هفت موسسه تحقیقاتی هوش مصنوعی جدید خبر داد و گفت که دفتر مدیریت و بودجه کاخ سفید دستورالعمل‌های سیاستی در مورد استفاده دولت فدرال از هوش مصنوعی صادر خواهد کرد. توسعه دهندگان پیشرو هوش مصنوعی، از جمله Anthropic، Google، Hugging Face، NVIDIA Corp، OpenAI و Stability AI در ارزیابی عمومی سیستم های هوش مصنوعی خود شرکت خواهند کرد.

اندکی پس از اینکه بایدن نامزدی مجدد خود را اعلام کرد، کمیته ملی جمهوری خواه ویدئویی را تهیه کرد که آینده ای دیستوپیایی را در دوره دوم ریاست جمهوری بایدن به تصویر می کشید که تماماً از تصاویر هوش مصنوعی ساخته شده بود.

انتظار می رود با گسترش فناوری هوش مصنوعی، چنین تبلیغات سیاسی رایج تر شوند.

مطلب پیشنهادی:  یک مدل هوش مصنوعی برای تشخیص احساسات بیماران در طول یک جلسه درمانی، از جمله احساسات زودگذر، پیدا شد

تنظیم‌کننده‌های ایالات متحده نتوانسته‌اند با رویکرد سخت‌گیرانه‌ای که دولت‌های اروپایی در تنظیم فن‌آوری و تدوین قوانین سخت‌گیرانه در مورد جعل و اطلاعات نادرست در جیب عمیق اتخاذ کرده‌اند، همگام شوند.

این مقام ارشد گفت: «ما این را به عنوان یک مسابقه نمی‌بینیم» و افزود که دولت از نزدیک با شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در مورد این موضوع همکاری می‌کند.

در ماه فوریه، بایدن یک فرمان اجرایی را امضا کرد که به آژانس‌های فدرال دستور داد تا تعصب در استفاده از هوش مصنوعی را حذف کنند. دولت بایدن همچنین منشور حقوق هوش مصنوعی و چارچوب مدیریت ریسک را منتشر کرد.

هفته گذشته، کمیسیون تجارت فدرال و بخش حقوق مدنی وزارت دادگستری همچنین گفتند که از اختیارات قانونی خود برای مبارزه با آسیب‌های مرتبط با هوش مصنوعی استفاده خواهند کرد.

غول‌های فناوری بارها وعده داده‌اند که با تبلیغات انتخاباتی، اخبار جعلی درباره واکسن‌های کووید-۱۹، هرزه‌نگاری و استثمار کودکان، و پیام‌های نفرت‌انگیز که گروه‌های قومی را هدف قرار می‌دهند، مبارزه کنند. اما مطالعات و رویدادهای خبری نشان می دهد که آنها ناموفق بوده اند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا