تکنولوژی

ایالات متحده به دنبال محدود کردن دسترسی چین به نرم افزارهای هوش مصنوعی در پشت برنامه هایی مانند ChatGPT است

بازدیدکنندگان از کنار غرفه‌ای با دوربین‌های امنیتی هوش مصنوعی (هوش مصنوعی) با استفاده از فناوری تشخیص چهره در چهاردهمین نمایشگاه بین‌المللی ایمنی و امنیت عمومی چین در مرکز نمایشگاه بین‌المللی چین در پکن در سال 2018 عبور می‌کنند.

نیکلاس آسفوری | Afp | گتی ایماژ

منابع گفتند که دولت بایدن در تلاش برای محافظت از هوش مصنوعی ایالات متحده در برابر چین با طرح‌های آزمایشی برای قرار دادن نرده‌هایی در اطراف مدل‌های پیشرفته هوش مصنوعی، نرم‌افزار اصلی سیستم‌های هوش مصنوعی مانند ChatGPT، آماده است.

به گفته سه نفر از افراد آشنا، وزارت بازرگانی در حال بررسی فشارهای نظارتی جدید برای محدود کردن صادرات مدل‌های اختصاصی یا بسته‌شده هوش مصنوعی است که نرم‌افزار و داده‌هایی که روی آن‌ها آموزش می‌دهد مخفی نگه داشته می‌شود.

هر اقدامی به مجموعه اقداماتی که طی دو سال گذشته برای جلوگیری از صادرات تراشه‌های هوش مصنوعی پیشرفته به چین در تلاش برای کاهش سرعت توسعه فناوری‌های پیشرفته پکن برای مقاصد نظامی ارائه شده است، اضافه می‌کند. با این حال، هماهنگی با توسعه سریع صنعت برای تنظیم کننده ها دشوار خواهد بود.

وزارت بازرگانی از اظهار نظر خودداری کرد. سفارت چین در واشنگتن بلافاصله به درخواست برای اظهار نظر پاسخ نداد.

در حال حاضر هیچ چیز مانع غول های هوش مصنوعی آمریکایی نمی شود مایکروسافت-پشتیبانی از OpenAI، از حروف الفبا Google DeepMind و رقیب آنتروپیک، که برخی از قدرتمندترین مدل‌های AI منبع بسته را توسعه داده‌اند و آنها را بدون کنترل دولت به تقریباً هر کسی در جهان می‌فروشند.

محققان بخش خصوصی و دولتی نگران هستند که دشمنان ایالات متحده بتوانند از مدل هایی که مقادیر زیادی متن و تصویر استخراج می کنند، برای خلاصه کردن اطلاعات و تولید محتوا، برای راه اندازی حملات سایبری تهاجمی یا حتی برای ایجاد سلاح های بیولوژیکی قدرتمند استفاده کنند.

مطلب پیشنهادی:  ناسا به ما می گوید 22 سال پیش در چنین روزی، زمین یکی از بدترین طوفان های خورشیدی دوران مدرن را تجربه کرد.

این منابع گفتند که برای توسعه کنترل‌ها بر صادرات مدل‌های هوش مصنوعی، ایالات متحده ممکن است به آستانه‌ای روی آورد که در یک فرمان اجرایی هوش مصنوعی صادر شده در اکتبر گذشته، که بر اساس میزان قدرت محاسباتی مورد نیاز برای آموزش یک مدل است. وقتی به این سطح رسید، توسعه‌دهنده باید برنامه‌های خود را برای توسعه یک مدل هوش مصنوعی گزارش کند و نتایج آزمایش را به وزارت بازرگانی ارائه کند.

به گفته دو مقام آمریکایی و منبع دیگری که در مورد این بحث ها توضیح داده شده است، این آستانه قدرت محاسباتی می تواند مبنایی برای تعیین اینکه کدام مدل های هوش مصنوعی مشمول محدودیت های صادراتی هستند، شود. آنها از افشای نامشان خودداری کردند زیرا جزییات آن علنی نشده است.

اگر از آن استفاده شود، احتمالاً صادرات به مدل‌هایی محدود می‌شود که هنوز عرضه نشده‌اند، زیرا گمان می‌رود که هنوز هیچ کدام به این آستانه نرسیده‌اند، اگرچه طبق گفته موسسه تحقیقاتی EpochAI، Gemini Ultra نزدیک است .

این منابع گفتند که آژانس تا نهایی کردن یک قانون پیشنهادی فاصله زیادی دارد. اما این واقعیت که چنین اقدامی در حال بررسی است نشان می دهد که دولت ایالات متحده علیرغم چالش های جدی تحمیل یک رژیم نظارتی قدرتمند بر این فناوری که به سرعت در حال رشد است، به دنبال پر کردن شکاف ها در تلاش های خود برای خنثی کردن جاه طلبی های هوش مصنوعی پکن است.

پیتر هارل، یکی از اعضای سابق شورای امنیت ملی، گفت: از آنجایی که دولت بایدن به رقابت با چین و خطرات هوش مصنوعی پیچیده نگاه می کند، مدل های هوش مصنوعی “بدیهی است که یکی از ابزارها، یکی از نقاط خفه کننده بالقوه ای هستند که باید در اینجا به آن فکر کنید.” رسمی وی افزود: باید دید که آیا در واقع می توانید آن را به یک نقطه هوایی قابل کنترل صادرات تبدیل کنید یا خیر.

مطلب پیشنهادی:  ISRO ماموریت XPoSat را روی موشک PSLV-C58 برای مطالعه سیاهچاله ها و غیره پرتاب می کند.

سلاح های بیولوژیکی و حملات سایبری؟

جامعه اطلاعاتی ایالات متحده، اتاق های فکر و دانشگاهیان به طور فزاینده ای نگران خطرات ناشی از دستیابی بازیگران بد خارجی به قابلیت های پیشرفته هوش مصنوعی هستند. محققان Gryphon Scientific و Rand Corporation خاطرنشان کردند که مدل‌های پیشرفته هوش مصنوعی می‌توانند اطلاعاتی را ارائه دهند که می‌تواند به ساخت سلاح‌های بیولوژیکی کمک کند.

وزارت امنیت داخلی گفت که بازیگران سایبری احتمالاً از هوش مصنوعی برای «توسعه ابزارهای جدید» برای «فعال کردن حملات سایبری بزرگ‌تر، سریع‌تر، مؤثرتر و گریزان‌تر» در ارزیابی تهدیدات داخلی خود در سال 2024 استفاده می‌کنند.

یکی از منابع گفت: هرگونه قوانین صادراتی جدید ممکن است کشورهای دیگر را نیز هدف قرار دهد.

«انفجار احتمالی برای [AI’s] برایان هولمز، یکی از مقامات دفتر مدیر اطلاعات ملی، در نشست کنترل صادرات در ماه مارس، گفت: «استفاده و بهره برداری رادیکال است، و در واقع برای ما بسیار دشوار است که آن را دنبال کنیم.» .

AI Crackdown

برای رفع این نگرانی ها، ایالات متحده اقداماتی را برای جلوگیری از جریان تراشه های هوش مصنوعی آمریکایی و ابزارهای ساخت آنها به چین انجام داده است.

او همچنین قانونی پیشنهاد کرد که شرکت‌های ابری ایالات متحده را ملزم می‌کند تا به دولت بگویند چه زمانی مشتریان خارجی از خدمات آنها برای آموزش مدل‌های قدرتمند هوش مصنوعی استفاده می‌کنند که می‌توانند برای حملات سایبری استفاده شوند.

اما تاکنون این موضوع در مورد خود مدل های هوش مصنوعی نبوده است. آلن استیوز، که سیاست صادرات ایالات متحده را در وزارت بازرگانی هدایت می کند، در ماه دسامبر گفت که آژانس در حال بررسی گزینه هایی برای تنظیم صادرات یک مدل بزرگ زبان منبع باز (LLM) است، قبل از اینکه به دنبال بازخورد صنعت باشد.

مطلب پیشنهادی:  خرید زنده، ویدیوهای قابل خرید بینندگان را به خریدار تبدیل می کند

تیم فیست، کارشناس سیاست هوش مصنوعی در اندیشکده واشنگتن CNAS، می‌گوید که این آستانه یک معیار توقف خوب است تا زمانی که روش‌های بهتری برای اندازه‌گیری قابلیت‌ها و خطرات مدل‌های جدید ایجاد کنیم.

آستانه در سنگ تعیین نشده است. یکی از منابع می گوید تجارت ممکن است به طبقه پایین تری ختم شود، همراه با عوامل دیگری مانند نوع داده ها یا کاربردهای بالقوه برای مدل هوش مصنوعی، مانند توانایی طراحی پروتئین هایی که می توان از آنها برای ساخت سلاح بیولوژیکی استفاده کرد. .

صرف نظر از آستانه، کنترل صادرات مدل های هوش مصنوعی دشوار خواهد بود. بسیاری از مدل‌ها منبع باز هستند، به این معنی که خارج از محدوده کنترل‌های صادراتی مورد نظر باقی می‌مانند.

فیست گفت که حتی اجرای کنترل‌ها بر روی طرح‌های ثبت شده پیشرفته‌تر چالش‌برانگیز خواهد بود، زیرا قانون‌گذاران احتمالاً برای تعیین معیارهای مناسب برای تعیین اینکه کدام طرح‌ها اصلاً باید کنترل شوند، با مشکل مواجه خواهند شد، و اشاره کرد که چین احتمالاً تنها دو سال از توسعه این طرح توسط ایالات متحده فاصله دارد. نرم افزار هوش مصنوعی خود

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا