تکنولوژی

واژه نامه هوش مصنوعی: NIST ایالات متحده استانداردهایی را برای ایمن و قابل اعتماد کردن هوش مصنوعی ایجاد می کند

هیچ فناوری شکافت هسته ای به اندازه هوش مصنوعی آینده جمعی ما را شکل نخواهد داد، بنابراین بسیار مهم است که سیستم های هوش مصنوعی ایمن، ایمن، قابل اعتماد و مسئولیت اجتماعی باشند. اما برخلاف بمب اتمی، این تغییر پارادایم تقریباً به طور کامل توسط بخش فناوری خصوصی انجام شد، که به بیان ملایم، در برابر مقررات مقاوم بود. میلیاردها دلار در خطر هستند و وظیفه دولت بایدن برای ایجاد استانداردهای ایمنی هوش مصنوعی را به یک چالش بزرگ تبدیل می کند.

برای تعریف پارامترها، از یک آژانس فدرال کوچک، موسسه ملی استاندارد و فناوری استفاده کرد. ابزارها و اقدامات NIST محصولات و خدمات را از ساعت اتمی گرفته تا فناوری‌های امنیتی انتخابات و نانومواد تعریف می‌کنند.

الهام طبسی، مشاور ارشد هوش مصنوعی NIST، رهبری تلاش‌های هوش مصنوعی آژانس را بر عهده دارد. او چارچوب مدیریت ریسک هوش مصنوعی را که 12 ماه پیش منتشر شد، رهبری کرد، که اساس فرمان اجرایی هوش مصنوعی بایدن در 30 اکتبر را ایجاد کرد. او چنین خطراتی را به عنوان سوگیری ضد سفیدپوستان و تهدید حریم خصوصی فهرست کرد.

ما در کانال های واتس اپ هستیم. برای عضویت کلیک کنید

طبسی متولد ایران، در سال 1994 برای مدرک کارشناسی ارشد در رشته مهندسی برق به ایالات متحده آمد و بلافاصله پس از آن به NIST پیوست. او معمار اصلی استانداردی است که FBI برای اندازه گیری کیفیت تصویر اثر انگشت از آن استفاده می کند.

این گفت و گو با طبسی برای طولانی شدن و وضوح ویرایش شده است.

س: فناوری های نوظهور هوش مصنوعی قابلیت هایی دارند که سازندگان آن ها حتی آن ها را درک نمی کنند. حتی یک فرهنگ لغت مورد توافق وجود ندارد، این فناوری بسیار جدید است. شما بر اهمیت ایجاد واژگان برای هوش مصنوعی تاکید کردید. چرا؟

پاسخ: بیشتر کارهای من مربوط به بینایی کامپیوتر و یادگیری ماشین است. در آنجا نیز ما به یک فرهنگ لغت مشترک نیاز داشتیم تا سریعاً دچار اختلاف نشویم. یک اصطلاح برای افراد مختلف می تواند معانی مختلفی داشته باشد. صحبت کردن روی یکدیگر به ویژه در زمینه های بین رشته ای مانند هوش مصنوعی رایج است.

مطلب پیشنهادی:  SenseTime در میان حدس و گمان جهش کرد. این یک رقیب هوش مصنوعی برای ChatGPT ایجاد می کند

س: شما گفته اید که برای موفقیت کار شما، نه تنها از دانشمندان و مهندسان کامپیوتر، بلکه از وکلا، روانشناسان، و فیلسوفان نیز نیاز دارید.

پاسخ: سیستم های هوش مصنوعی ذاتاً اجتماعی-فنی هستند و تحت تأثیر محیط و شرایط استفاده قرار می گیرند. آنها باید در شرایط واقعی آزمایش شوند تا خطرات و اثرات آن را درک کنند. بنابراین ما به دانشمندان شناختی، دانشمندان علوم اجتماعی و، بله، فیلسوفان نیاز داریم.

س: این یک سفارش بلند برای یک آژانس کوچک، وزارت بازرگانی است، که واشنگتن پست آن را “به طرز بدنامی کمبود بودجه و کارکنان کم” خواند. چند نفر در NIST روی این کار کار می کنند؟

پاسخ: ابتدا، می‌خواهم بگویم که ما در NIST سابقه تعامل با جوامع گسترده‌ای داریم. در توسعه چارچوب ریسک هوش مصنوعی، از بیش از 240 سازمان مختلف شنیدیم و حدود 660 مجموعه نظر عمومی دریافت کردیم. از نظر کیفیت تولید و تاثیر، کم به نظر نمی رسیم. ما بیش از ده نفر در تیم داریم و در حال گسترش هستیم.

سوال: آیا بودجه NIST از 1.6 میلیارد دلار فعلی با توجه به ماموریت هوش مصنوعی رشد خواهد کرد؟

ج: کنگره چک ها را برای ما می نویسد و ما از حمایت آنها سپاسگزاریم.

س: دستور اجرایی تا ژوئیه به شما فرصت می دهد تا مجموعه ای از ابزارها را برای اطمینان از ایمنی و قابلیت اطمینان هوش مصنوعی ایجاد کنید. من می دانم که شما این را یک “مهلت تقریبا غیرممکن” در یک کنفرانس ماه گذشته نامیدید.

پاسخ: بله، اما من سریع اضافه کردم که این اولین بار نیست که ما با این نوع چالش روبرو می شویم، تیم درخشانی داریم، متعهد و هیجان زده هستیم. در مورد ضرب الاجل، اینطور نیست که از صفر شروع کنیم. در ماه ژوئن، ما یک گروه کاری عمومی تشکیل دادیم که بر چهار مجموعه مختلف دستورالعمل، از جمله احراز هویت محتوای مصنوعی متمرکز بود.

مطلب پیشنهادی:  دفاع سنگاپور در برابر بایننس پس از Fallout FTX

پرسش: اعضای کمیته علم و فناوری مجلس نمایندگان آمریکا ماه گذشته در نامه‌ای گفتند که دریافته‌اند که NIST قصد دارد از طریق یک مؤسسه جدید ایمنی هوش مصنوعی کمک‌های مالی یا جوایزی اعطا کند – که نشان دهنده عدم شفافیت است. پاسخ: در واقع، ما در حال بررسی فرصت‌هایی برای یک فرآیند رقابتی برای حمایت از فرصت‌های تحقیقاتی مشترک هستیم. استقلال علمی ما واقعا برای ما مهم است. اگرچه ما یک فرآیند تعامل عظیم را اجرا می کنیم، اما نویسندگان نهایی همه چیزهایی هستیم که تولید می کنیم. ما هرگز به دیگری تفویض نمی کنیم.

س: کنسرسیومی که برای حمایت از مؤسسه ایمنی هوش مصنوعی ایجاد شده است، به دلیل دخالت صنعت، مستعد بحث و جدل است. اعضای کنسرسیوم باید با چه چیزی موافقت کنند؟

پاسخ: ما در اواخر دسامبر یک الگوی این قرارداد را در وب سایت خود قرار دادیم. صراحت و شفافیت برای ما یک ویژگی است. قالب وجود دارد.

س: چارچوب ریسک هوش مصنوعی داوطلبانه بود، اما دستور اجرایی برخی تعهدات را بر توسعه دهندگان تحمیل می کند. این شامل ارائه مدل‌های زبان گسترده برای ادغام دولت (آزمایش خطرات و آسیب‌پذیری‌ها) پس از رسیدن به آستانه معینی در اندازه و قدرت محاسباتی است. آیا NIST مسئول تعیین مدل هایی برای ادغام خواهد بود؟

پاسخ: وظیفه ما توسعه علم اندازه گیری و استانداردهای لازم برای آن کار است. این شامل برخی ارزیابی ها می شود. این کاری است که ما برای الگوریتم های تشخیص چهره انجام دادیم. در مورد تیم قرمز، NIST هیچ یک از این کارها را انجام نخواهد داد. وظیفه ما این است که به صنعت کمک کنیم تا استانداردهای معتبر علمی و فنی را توسعه دهد. ما یک آژانس غیرقانونی، بی طرف و عینی هستیم.

س: نحوه آموزش هوش مصنوعی و تدابیر امنیتی اعمال شده بر روی آنها می تواند بسیار متفاوت باشد. و گاهی اوقات ویژگی هایی مانند امنیت سایبری یک فکر بعدی بود. چگونه اطمینان حاصل کنیم که ریسک به طور دقیق ارزیابی و شناسایی شده است – به خصوص زمانی که ممکن است ندانیم روی چه مدل‌هایی که به صورت عمومی منتشر شده است آموزش دیده است؟

مطلب پیشنهادی:  متاورس در نمایشگاه فناوری MWC در کانون توجه قرار گرفت، اگرچه تردیدهایی وجود دارد

پاسخ: در چارچوب مدیریت ریسک هوش مصنوعی، ما به نوعی طبقه‌بندی قابل اعتماد ارائه کرده‌ایم که بر اهمیت پرداختن به این موضوع در طول طراحی، توسعه و استقرار تأکید می‌کند – از جمله نظارت و ارزیابی منظم در طول چرخه عمر سیستم‌های هوش مصنوعی. همه یاد گرفته‌اند که ما نمی‌توانیم پس از از کار افتادن سیستم‌های هوش مصنوعی، آن‌ها را تعمیر کنیم. باید در اسرع وقت انجام شود.

و بله، خیلی به مورد استفاده بستگی دارد. تشخیص چهره را دریافت کنید. این یک چیز است اگر من از آن برای باز کردن قفل گوشی خود استفاده کنم. زمانی که مثلاً مجریان قانون از آن برای حل یک جرم استفاده می‌کنند، مجموعه‌ای کاملاً متفاوت از الزامات امنیت، حریم خصوصی و دقت وارد عمل می‌شوند. مبادله بین راحتی و امنیت، تعصب و حریم خصوصی همه به زمینه استفاده بستگی دارد.

همچنین داستان های برتر امروز را بخوانید:

اپل ویژن پرو و ​​آینده: اپل در حال حاضر برنامه های کاربردی در محل کار آینده را برای این دستگاه پیش بینی کرده است، از جمله استفاده از آن برای جراحی، تعمیر هواپیما و آموزش دانش آموزان. در اینجا بیابید که این ابزار برای انجام چه کاری آماده است.

سکوت سایبری در حال تبدیل شدن به آفت زندگی مدرن است. نزدیک به 94000 جرایم سایبری در استرالیا در سال های 2022 تا 2023 گزارش شده است که نسبت به سال قبل 23 درصد افزایش داشته است. در اینجا نحوه محافظت از خود را بیاموزید.

هوش مصنوعی برای خوب یا بد؟ اگر بهبود سریع هوش مصنوعی به هدف والای خود یعنی جاودانگی دیجیتال دست یابد – همانطور که طرفدارانش معتقدند می تواند – آیا نیروی خوبی خواهد بود یا بد؟ همه چیز در مورد آن را اینجا بخوانید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا