واژه نامه هوش مصنوعی: NIST ایالات متحده استانداردهایی را برای ایمن و قابل اعتماد کردن هوش مصنوعی ایجاد می کند
هیچ فناوری شکافت هسته ای به اندازه هوش مصنوعی آینده جمعی ما را شکل نخواهد داد، بنابراین بسیار مهم است که سیستم های هوش مصنوعی ایمن، ایمن، قابل اعتماد و مسئولیت اجتماعی باشند. اما برخلاف بمب اتمی، این تغییر پارادایم تقریباً به طور کامل توسط بخش فناوری خصوصی انجام شد، که به بیان ملایم، در برابر مقررات مقاوم بود. میلیاردها دلار در خطر هستند و وظیفه دولت بایدن برای ایجاد استانداردهای ایمنی هوش مصنوعی را به یک چالش بزرگ تبدیل می کند.
برای تعریف پارامترها، از یک آژانس فدرال کوچک، موسسه ملی استاندارد و فناوری استفاده کرد. ابزارها و اقدامات NIST محصولات و خدمات را از ساعت اتمی گرفته تا فناوریهای امنیتی انتخابات و نانومواد تعریف میکنند.
الهام طبسی، مشاور ارشد هوش مصنوعی NIST، رهبری تلاشهای هوش مصنوعی آژانس را بر عهده دارد. او چارچوب مدیریت ریسک هوش مصنوعی را که 12 ماه پیش منتشر شد، رهبری کرد، که اساس فرمان اجرایی هوش مصنوعی بایدن در 30 اکتبر را ایجاد کرد. او چنین خطراتی را به عنوان سوگیری ضد سفیدپوستان و تهدید حریم خصوصی فهرست کرد.
ما در کانال های واتس اپ هستیم. برای عضویت کلیک کنید
طبسی متولد ایران، در سال 1994 برای مدرک کارشناسی ارشد در رشته مهندسی برق به ایالات متحده آمد و بلافاصله پس از آن به NIST پیوست. او معمار اصلی استانداردی است که FBI برای اندازه گیری کیفیت تصویر اثر انگشت از آن استفاده می کند.
این گفت و گو با طبسی برای طولانی شدن و وضوح ویرایش شده است.
س: فناوری های نوظهور هوش مصنوعی قابلیت هایی دارند که سازندگان آن ها حتی آن ها را درک نمی کنند. حتی یک فرهنگ لغت مورد توافق وجود ندارد، این فناوری بسیار جدید است. شما بر اهمیت ایجاد واژگان برای هوش مصنوعی تاکید کردید. چرا؟
پاسخ: بیشتر کارهای من مربوط به بینایی کامپیوتر و یادگیری ماشین است. در آنجا نیز ما به یک فرهنگ لغت مشترک نیاز داشتیم تا سریعاً دچار اختلاف نشویم. یک اصطلاح برای افراد مختلف می تواند معانی مختلفی داشته باشد. صحبت کردن روی یکدیگر به ویژه در زمینه های بین رشته ای مانند هوش مصنوعی رایج است.
س: شما گفته اید که برای موفقیت کار شما، نه تنها از دانشمندان و مهندسان کامپیوتر، بلکه از وکلا، روانشناسان، و فیلسوفان نیز نیاز دارید.
پاسخ: سیستم های هوش مصنوعی ذاتاً اجتماعی-فنی هستند و تحت تأثیر محیط و شرایط استفاده قرار می گیرند. آنها باید در شرایط واقعی آزمایش شوند تا خطرات و اثرات آن را درک کنند. بنابراین ما به دانشمندان شناختی، دانشمندان علوم اجتماعی و، بله، فیلسوفان نیاز داریم.
س: این یک سفارش بلند برای یک آژانس کوچک، وزارت بازرگانی است، که واشنگتن پست آن را “به طرز بدنامی کمبود بودجه و کارکنان کم” خواند. چند نفر در NIST روی این کار کار می کنند؟
پاسخ: ابتدا، میخواهم بگویم که ما در NIST سابقه تعامل با جوامع گستردهای داریم. در توسعه چارچوب ریسک هوش مصنوعی، از بیش از 240 سازمان مختلف شنیدیم و حدود 660 مجموعه نظر عمومی دریافت کردیم. از نظر کیفیت تولید و تاثیر، کم به نظر نمی رسیم. ما بیش از ده نفر در تیم داریم و در حال گسترش هستیم.
سوال: آیا بودجه NIST از 1.6 میلیارد دلار فعلی با توجه به ماموریت هوش مصنوعی رشد خواهد کرد؟
ج: کنگره چک ها را برای ما می نویسد و ما از حمایت آنها سپاسگزاریم.
س: دستور اجرایی تا ژوئیه به شما فرصت می دهد تا مجموعه ای از ابزارها را برای اطمینان از ایمنی و قابلیت اطمینان هوش مصنوعی ایجاد کنید. من می دانم که شما این را یک “مهلت تقریبا غیرممکن” در یک کنفرانس ماه گذشته نامیدید.
پاسخ: بله، اما من سریع اضافه کردم که این اولین بار نیست که ما با این نوع چالش روبرو می شویم، تیم درخشانی داریم، متعهد و هیجان زده هستیم. در مورد ضرب الاجل، اینطور نیست که از صفر شروع کنیم. در ماه ژوئن، ما یک گروه کاری عمومی تشکیل دادیم که بر چهار مجموعه مختلف دستورالعمل، از جمله احراز هویت محتوای مصنوعی متمرکز بود.
پرسش: اعضای کمیته علم و فناوری مجلس نمایندگان آمریکا ماه گذشته در نامهای گفتند که دریافتهاند که NIST قصد دارد از طریق یک مؤسسه جدید ایمنی هوش مصنوعی کمکهای مالی یا جوایزی اعطا کند – که نشان دهنده عدم شفافیت است. پاسخ: در واقع، ما در حال بررسی فرصتهایی برای یک فرآیند رقابتی برای حمایت از فرصتهای تحقیقاتی مشترک هستیم. استقلال علمی ما واقعا برای ما مهم است. اگرچه ما یک فرآیند تعامل عظیم را اجرا می کنیم، اما نویسندگان نهایی همه چیزهایی هستیم که تولید می کنیم. ما هرگز به دیگری تفویض نمی کنیم.
س: کنسرسیومی که برای حمایت از مؤسسه ایمنی هوش مصنوعی ایجاد شده است، به دلیل دخالت صنعت، مستعد بحث و جدل است. اعضای کنسرسیوم باید با چه چیزی موافقت کنند؟
پاسخ: ما در اواخر دسامبر یک الگوی این قرارداد را در وب سایت خود قرار دادیم. صراحت و شفافیت برای ما یک ویژگی است. قالب وجود دارد.
س: چارچوب ریسک هوش مصنوعی داوطلبانه بود، اما دستور اجرایی برخی تعهدات را بر توسعه دهندگان تحمیل می کند. این شامل ارائه مدلهای زبان گسترده برای ادغام دولت (آزمایش خطرات و آسیبپذیریها) پس از رسیدن به آستانه معینی در اندازه و قدرت محاسباتی است. آیا NIST مسئول تعیین مدل هایی برای ادغام خواهد بود؟
پاسخ: وظیفه ما توسعه علم اندازه گیری و استانداردهای لازم برای آن کار است. این شامل برخی ارزیابی ها می شود. این کاری است که ما برای الگوریتم های تشخیص چهره انجام دادیم. در مورد تیم قرمز، NIST هیچ یک از این کارها را انجام نخواهد داد. وظیفه ما این است که به صنعت کمک کنیم تا استانداردهای معتبر علمی و فنی را توسعه دهد. ما یک آژانس غیرقانونی، بی طرف و عینی هستیم.
س: نحوه آموزش هوش مصنوعی و تدابیر امنیتی اعمال شده بر روی آنها می تواند بسیار متفاوت باشد. و گاهی اوقات ویژگی هایی مانند امنیت سایبری یک فکر بعدی بود. چگونه اطمینان حاصل کنیم که ریسک به طور دقیق ارزیابی و شناسایی شده است – به خصوص زمانی که ممکن است ندانیم روی چه مدلهایی که به صورت عمومی منتشر شده است آموزش دیده است؟
پاسخ: در چارچوب مدیریت ریسک هوش مصنوعی، ما به نوعی طبقهبندی قابل اعتماد ارائه کردهایم که بر اهمیت پرداختن به این موضوع در طول طراحی، توسعه و استقرار تأکید میکند – از جمله نظارت و ارزیابی منظم در طول چرخه عمر سیستمهای هوش مصنوعی. همه یاد گرفتهاند که ما نمیتوانیم پس از از کار افتادن سیستمهای هوش مصنوعی، آنها را تعمیر کنیم. باید در اسرع وقت انجام شود.
و بله، خیلی به مورد استفاده بستگی دارد. تشخیص چهره را دریافت کنید. این یک چیز است اگر من از آن برای باز کردن قفل گوشی خود استفاده کنم. زمانی که مثلاً مجریان قانون از آن برای حل یک جرم استفاده میکنند، مجموعهای کاملاً متفاوت از الزامات امنیت، حریم خصوصی و دقت وارد عمل میشوند. مبادله بین راحتی و امنیت، تعصب و حریم خصوصی همه به زمینه استفاده بستگی دارد.
همچنین داستان های برتر امروز را بخوانید:
اپل ویژن پرو و آینده: اپل در حال حاضر برنامه های کاربردی در محل کار آینده را برای این دستگاه پیش بینی کرده است، از جمله استفاده از آن برای جراحی، تعمیر هواپیما و آموزش دانش آموزان. در اینجا بیابید که این ابزار برای انجام چه کاری آماده است.
سکوت سایبری در حال تبدیل شدن به آفت زندگی مدرن است. نزدیک به 94000 جرایم سایبری در استرالیا در سال های 2022 تا 2023 گزارش شده است که نسبت به سال قبل 23 درصد افزایش داشته است. در اینجا نحوه محافظت از خود را بیاموزید.
هوش مصنوعی برای خوب یا بد؟ اگر بهبود سریع هوش مصنوعی به هدف والای خود یعنی جاودانگی دیجیتال دست یابد – همانطور که طرفدارانش معتقدند می تواند – آیا نیروی خوبی خواهد بود یا بد؟ همه چیز در مورد آن را اینجا بخوانید.