Dall-E، Midjourney، ChatGPT و دیگرانی که بر موج هوش مصنوعی سوار می شوند، اما 3 موضوع حقوقی کلیدی فضا را به هم می زند.
Dall-E، Beatoven و Midjourney – این اپلیکیشنهای پر از جناس و با صدای شاعرانه در یک سال گذشته ناگهان به نامهای معروفی تبدیل شدهاند و ChatGPT شاید محبوبترین آنها باشد. هوش مصنوعی مولد (GAI) تخیل مردم و مشاغل را به خود جلب کرده است – خلاقیت (مصنوعی) را در مقیاسی که تا حد زیادی ناشناخته بود، ممکن می کند. متن، تصاویر، موسیقی، ویدئوها، چاپ سه بعدی – این برنامهها میتوانند نتایج بسیار چشمگیری تولید کنند (اگرچه هنوز از کامل بودن فاصله زیادی دارند).
GAI همه چیز در مورد خلاقیت است و اولین سوال واضحی که مطرح می کند در مورد مالکیت معنوی است. از یک طرف، اتهاماتی وجود دارد که روش آموزش GAI آثار دارای حق چاپ موجود را نقض می کند. GAI ها معمولاً بر روی مقادیر زیادی از داده های موجود در اینترنت آموزش می بینند. این میتواند شامل مقالهها، صفحات خبری، وبسایتهای تصویری (و حتی کل کتابهای الکترونیکی بر اساس برخی گزارشها) باشد که همگی آثار بالقوه دارای حق چاپ هستند. در حال حاضر پرونده های قضایی متعددی در ایالات متحده برای نقض حق نسخه برداری توسط توسعه دهندگان GAI در طول فرآیند آموزش ثبت شده است. فرآیند یادگیری لزوماً مستلزم کسب رضایت یا مجوز از همه نویسندگان نیست، که منجر به نگرانی در مورد استقلال نویسندگان بر کارشان می شود. اگرچه آموزش GAI شامل تهیه کپی و ذخیره آثار دارای حق نسخهبرداری موجود میشود، این که آیا این نقض به منزله نقض است یا نه ممکن است به عواملی مانند اصول استفاده منصفانه، تجاریسازی GAI، درجه نقض آثار موجود، خلاقیت، شامل در تولید و تهدیدی برای بازار کار اصلی
طرف دیگر جبهه IP، البته، تألیف نتایج GAI است و اینکه آیا نتایج GAI می توانند در وهله اول به عنوان آثار دارای حق چاپ واجد شرایط باشند یا خیر. مفاهیم نویسندگی به طور سنتی حول محور نویسندگان فردی، “عرق پیشانی” و خلاقیت آنها می چرخد (اگرچه مالکیت ممکن است با شرکت ها و سایر اشخاص حقوقی باشد). حتی مدت حق چاپ به زندگی نویسنده مربوط می شود. در چنین سابقههایی، تعیین اینکه آیا توسعهدهنده GAI یا کاربر ارائهدهنده اطلاعات، یا هر دو، باید بهعنوان نویسندگان اثر در نظر گرفته شوند، دشوار است، زیرا هیچکدام از آنها خلاقیت یا مهارت خود را برای یک نتیجه خاص به خرج ندادهاند. AI ممکن است به عنوان یک شخص حقوقی، به ویژه برای اهداف حق چاپ، در نظر گرفته نشود، و بنابراین ممکن است GAI یک نویسنده در نظر گرفته نشود. این تقسیم بندی می تواند به این استدلال منجر شود که خروجی GAI در وهله اول دارایی معنوی نیست، با توجه به اینکه هیچ نویسنده ای ندارد.
علاوه بر موارد فوق، وجود تعصبات و تعصبات در هوش مصنوعی به خوبی مستند شده است. گزارش شده است که هوش مصنوعی علاوه بر تعصب جنسیتی، تعصبات نژادی و قومی را نیز نشان می دهد. چنین سوگیری ها می تواند پیامدهای قابل توجهی داشته باشد، به ویژه برای هوش مصنوعی عمومی. به عنوان مثال، هوش مصنوعی مبتنی بر متن ممکن است ویژگیهای خاصی را بر اساس نژاد افراد در نظر بگیرد، در حالی که هوش مصنوعی تولید کننده تصویر ممکن است نتایجی را ایجاد کند که نقشهای جنسیتی خاصی را به خود اختصاص دهد. وقتی کسبوکارها از GAI برای فعالیتهای رویاروی با مشتری استفاده میکنند، چنین سوگیری میتواند منجر به خطرات اعتباری عظیمی شود، علاوه بر خطرات نظارتی در حوزههای قضایی که قوانین ضد تبعیض قوی دارند.
این ما را به پرسش گسترده تری از پاسخگویی، توضیح پذیری و مسئولیت می رساند. در حالی که سوگیری یکی از منابع خطرات بالقوه است، مسئولیت نیز می تواند از طریق محتوای غیرقانونی ایجاد شود. برای مثال، اگر یک GAI سخنان مشوق عداوت و تنفر یا محتوای افتراآمیز تولید کند، کدام طرف باید مسئول آن باشد – توسعهدهنده GAI، کسبوکاری که آن را پیادهسازی میکند یا کاربر ارائهدهنده درخواست؟ پاسخ زمانی پیچیدهتر میشود که کسبوکارها همچنین GAI را با دادههای خود آموزش میدهند تا مورد استفاده خاص خود را ارائه دهند. در حالی که یادگیری GAI ممکن است همیشه عمدی نباشد، درک یا پیشبینی اینکه چگونه GAI نتیجه نهایی را ایجاد میکند، چالش برانگیز است. این معمای “جعبه سیاه” منجر به مشکلات مسئولیت پذیری می شود، به خصوص زمانی که GAI برای موارد استفاده عمومی استفاده می شود. اینکه چگونه توسعه دهندگان GAI و مشتریان تجاری آنها مسئولیت را برای خروجی GAI تخصیص می دهند، یک نکته مهم در نظر قانونی خواهد بود. بنابراین، این مسائل حقوقی برای تعیین ارزش تجاری GAI و خدمات آن و خطرات آن کلید خواهد بود.
توسط حذفه توالا و آنیرودا مجومدار