تسکین پلتفرم های فناوری اطلاعات! دولت در حال حذف الزامات مجوز برای مدلهای آزمایشنشده هوش مصنوعی است
طبق آخرین توصیهها در مورد فناوری هوش مصنوعی، دولت الزامات مجوز را برای مدلهای هوش مصنوعی آزمایشنشده حذف کرده است، اما بر نیاز به برچسبگذاری محتوای تولید شده توسط هوش مصنوعی تاکید کرد.
بهجای مجوز برای مدلهای هوش مصنوعی در حال توسعه، توصیهنامه جدید صادر شده توسط وزارت الکترونیک و فناوری اطلاعات در عصر جمعه، الزامات انطباق تحت قوانین فناوری اطلاعات 2021 را روشن میکند.
در این بیانیه آمده است: «این توصیه به عنوان سرکوب توصیهها صادر میشود… از اول مارس 2024 اجرا میشود».
طبق هیئت مدیره جدید، مشاهده شده است که شرکتها و پلتفرمهای فناوری اطلاعات اغلب در انجام تعهدات دقت لازم که در مقررات فناوری اطلاعات (دستورالعملهایی برای واسطهها و آییننامه رفتار رسانههای دیجیتال) 2021 مشخص شده است، سهل انگاری میکنند.
دولت از شرکتها خواسته است تا محتوای تولید شده با استفاده از نرمافزار یا پلتفرم هوش مصنوعی خود را برچسبگذاری کنند و کاربران را از نادرستی یا غیرقابل اعتماد بودن احتمالی خروجی تولید شده با استفاده از ابزارهای هوش مصنوعی آگاه کنند.
«هرگاه واسطهای از طریق نرمافزار یا سایر منابع رایانهای خود، ایجاد، تولید یا اصلاح مصنوعی اطلاعات متنی، شنیداری، بصری یا سمعی و بصری را امکانپذیر یا تسهیل میکند، به گونهای که این اطلاعات به طور بالقوه میتواند به عنوان اطلاعات نادرست یا اطلاعات نادرست عمیق مورد استفاده قرار گیرد. توصیه میشود که چنین اطلاعاتی که با استفاده از نرمافزار یا سایر منابع رایانهای آن ایجاد، تولید یا اصلاح شدهاند، دارای برچسب باشند … که چنین اطلاعاتی با استفاده از منبع رایانهای واسطه ایجاد، تولید یا اصلاح شده است.»
در صورت ایجاد تغییرات توسط کاربر، ابرداده باید به گونه ای پیکربندی شود که امکان شناسایی کاربر یا منبع رایانه ای که چنین تغییری را ایجاد کرده است را فراهم کند.
پس از بحث و جدل در مورد پاسخ پلت فرم هوش مصنوعی گوگل به سوالات مربوط به نخست وزیر نارندرا مودی، دولت در اول مارس توصیه ای به رسانه های اجتماعی و سایر پلتفرم ها صادر کرد تا مدل های هوش مصنوعی تحت آزمایش را برچسب گذاری کنند و از میزبانی محتوای غیرقانونی جلوگیری کنند.
وزارت الکترونیک و فناوری اطلاعات در توصیهای به واسطهها و بسترها نسبت به برخورد تنبیهی در صورت عدم رعایت هشدار داده است.
توصیههای قبلی از نهادها میخواست که برای استقرار مدلهای هوش مصنوعی آزمایشی یا غیرقابل اعتماد (AI) تأییدیه دولت را دریافت کنند و تنها پس از برچسبگذاری آنها به عنوان «خطاپذیری احتمالی و ذاتی یا غیرقابل اعتماد بودن خروجی تولید شده»، آنها را به کار گیرند.