تکنولوژی

تسکین پلتفرم های فناوری اطلاعات! دولت در حال حذف الزامات مجوز برای مدل‌های آزمایش‌نشده هوش مصنوعی است

طبق آخرین توصیه‌ها در مورد فناوری هوش مصنوعی، دولت الزامات مجوز را برای مدل‌های هوش مصنوعی آزمایش‌نشده حذف کرده است، اما بر نیاز به برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی تاکید کرد.

به‌جای مجوز برای مدل‌های هوش مصنوعی در حال توسعه، توصیه‌نامه جدید صادر شده توسط وزارت الکترونیک و فناوری اطلاعات در عصر جمعه، الزامات انطباق تحت قوانین فناوری اطلاعات 2021 را روشن می‌کند.

در این بیانیه آمده است: «این توصیه به عنوان سرکوب توصیه‌ها صادر می‌شود… از اول مارس 2024 اجرا می‌شود».

طبق هیئت مدیره جدید، مشاهده شده است که شرکت‌ها و پلتفرم‌های فناوری اطلاعات اغلب در انجام تعهدات دقت لازم که در مقررات فناوری اطلاعات (دستورالعمل‌هایی برای واسطه‌ها و آیین‌نامه رفتار رسانه‌های دیجیتال) 2021 مشخص شده است، سهل انگاری می‌کنند.

دولت از شرکت‌ها خواسته است تا محتوای تولید شده با استفاده از نرم‌افزار یا پلتفرم هوش مصنوعی خود را برچسب‌گذاری کنند و کاربران را از نادرستی یا غیرقابل اعتماد بودن احتمالی خروجی تولید شده با استفاده از ابزارهای هوش مصنوعی آگاه کنند.

«هرگاه واسطه‌ای از طریق نرم‌افزار یا سایر منابع رایانه‌ای خود، ایجاد، تولید یا اصلاح مصنوعی اطلاعات متنی، شنیداری، بصری یا سمعی و بصری را امکان‌پذیر یا تسهیل می‌کند، به گونه‌ای که این اطلاعات به طور بالقوه می‌تواند به عنوان اطلاعات نادرست یا اطلاعات نادرست عمیق مورد استفاده قرار گیرد. توصیه می‌شود که چنین اطلاعاتی که با استفاده از نرم‌افزار یا سایر منابع رایانه‌ای آن ایجاد، تولید یا اصلاح شده‌اند، دارای برچسب باشند … که چنین اطلاعاتی با استفاده از منبع رایانه‌ای واسطه ایجاد، تولید یا اصلاح شده است.»

مطلب پیشنهادی:  ناسا هشدار داد دو سیارک با زمین برخورد خواهند کرد

در صورت ایجاد تغییرات توسط کاربر، ابرداده باید به گونه ای پیکربندی شود که امکان شناسایی کاربر یا منبع رایانه ای که چنین تغییری را ایجاد کرده است را فراهم کند.

پس از بحث و جدل در مورد پاسخ پلت فرم هوش مصنوعی گوگل به سوالات مربوط به نخست وزیر نارندرا مودی، دولت در اول مارس توصیه ای به رسانه های اجتماعی و سایر پلتفرم ها صادر کرد تا مدل های هوش مصنوعی تحت آزمایش را برچسب گذاری کنند و از میزبانی محتوای غیرقانونی جلوگیری کنند.

وزارت الکترونیک و فناوری اطلاعات در توصیه‌ای به واسطه‌ها و بسترها نسبت به برخورد تنبیهی در صورت عدم رعایت هشدار داده است.

توصیه‌های قبلی از نهادها می‌خواست که برای استقرار مدل‌های هوش مصنوعی آزمایشی یا غیرقابل اعتماد (AI) تأییدیه دولت را دریافت کنند و تنها پس از برچسب‌گذاری آنها به عنوان «خطاپذیری احتمالی و ذاتی یا غیرقابل اعتماد بودن خروجی تولید شده»، آنها را به کار گیرند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا