پرونده دادگاه عالی ایالات متحده یوتیوب می تواند دفاعیات ChatGPT و AI را شکل دهد
هنگامی که دادگاه عالی ایالات متحده در ماههای آینده تصمیم بگیرد که آیا سپر قدرتمند محافظت از شرکتهای اینترنتی را تضعیف کند، این حکم میتواند پیامدهایی برای فناوریهای در حال رشد سریع مانند ربات چت هوش مصنوعی ChatGPT نیز داشته باشد.
قضات تا پایان ماه ژوئن فرصت دارند در مورد اینکه آیا YouTube Alphabet Inc به دلیل توصیه های ویدیویی خود به کاربران قابل شکایت است یا خیر، تصمیم بگیرند. این مورد آزمایش میکند که آیا قانون ایالات متحده که از پلتفرمهای فناوری در برابر مسئولیت قانونی در قبال محتوای ارسال شده آنلاین توسط کاربرانشان محافظت میکند، زمانی که شرکتها از الگوریتمهایی برای هدف قرار دادن کاربران با توصیهها استفاده میکنند نیز اعمال میشود یا خیر.
تصمیم دادگاه در مورد این موارد فراتر از پلتفرم های رسانه های اجتماعی است. تصمیم او میتواند بر بحثهای نوظهور در مورد اینکه آیا شرکتهایی که چترباتهای مولد هوش مصنوعی مانند ChatGPT از OpenAI، شرکتی که شرکت مایکروسافت در آن سرمایهگذار اصلی است، یا Bard از Google Alphabet باید در برابر ادعاهای قانونی مانند افترا یا نقض حق نسخهبرداری محافظت شوند، تأثیر بگذارد. به گفته کارشناسان فنی و حقوقی، حریم خصوصی.
این به این دلیل است که متخصصان اضافه کردند که الگوریتمهایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت میکنند، به روشی مشابه با الگوریتمهایی که ویدیوها را به کاربران YouTube پیشنهاد میکنند، کار میکنند.
کامرون کری، عضو مهمان در اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً در مورد این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه آنقدر برای شکلدهی محتوا مهم است که مسئول شود یا خیر». “شما همان مشکلات ربات چت را دارید.”
نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.
در خلال مشاجرات در ماه فوریه، قضات دیوان عالی درباره تضعیف حمایت های مندرج در قانون، که به عنوان بخش 230 قانون نجابت ارتباطات در سال 1996 شناخته می شود، تردید داشتند. اگرچه این پرونده مستقیماً شامل هوش مصنوعی مولد نمی شد، قاضی نیل گورسوش خاطرنشان کرد که ابزارهای هوش مصنوعی که ایجاد “شعر” و “جنجال” بعید است که از چنین حمایت قانونی برخوردار شوند.
این مورد تنها یکی از جنبههای گفتگوی نوظهور در مورد این است که آیا مصونیت بخش 230 باید برای مدلهای هوش مصنوعی که بر روی دادههای آنلاین موجود آموزش دیدهاند اما قادر به ایجاد آثار اصلی هستند اعمال شود.
حفاظت های بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلت فرم فناوری اعمال می شود، نه برای اطلاعاتی که به توسعه یک شرکت کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود یا خیر، بررسی نکرده اند.
“عواقب اقدامات خود آنها”
سناتور دموکرات، ران وایدن، که در هنگام حضور در مجلس نمایندگان به تدوین این قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.
بخش 230 در مورد محافظت از مصرف کنندگان و سایت هایی برای میزبانی و سازماندهی سخنرانی مصرف کننده است. واین در بیانیه ای به رویترز گفت: این نباید از شرکت ها در برابر عواقب اقدامات و محصولات خود محافظت کند.
با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری برای حفظ بخش 230 تلاش می کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو کار می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.
“هوش مصنوعی در واقع چیزی ایجاد نمی کند. کارل سابو، نایب رئیس و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، گفت: محتوای موجود را می گیرد و آن را به شیوه ای متفاوت یا قالب متفاوتی قرار می دهد.
سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.
برخی از کارشناسان پیشبینی میکنند که دادگاهها ممکن است راه وسطی را انتخاب کنند و زمینهای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد میکند.
در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما رباتهای چت مانند ChatGPT برای ایجاد پاسخهای تخیلی شناخته شدهاند که به نظر میرسد با اطلاعاتی که در سایر نقاط آنلاین یافت نمیشوند ارتباطی نداشته باشند، وضعیتی که کارشناسان میگویند بعید است که محافظت شود.
هانی فرید، فنشناس و استاد دانشگاه کالیفرنیا، برکلی، گفت که این بحث که توسعهدهندگان هوش مصنوعی باید از طرحهای قضایی در مورد مدلهایی که «برنامهنویسی، آموزش و اجرا کردهاند» مصون باشند، دور از ذهن است.
فرید گفت: «وقتی شرکتها در دعاوی مدنی در قبال خسارات ناشی از محصولاتی که تولید میکنند مسئول شناخته میشوند، محصولات ایمنتری تولید میکنند. “و زمانی که آنها پاسخگو نباشند، محصولات کمتر ایمن تولید می کنند.”
پرونده پیش روی دیوان عالی شامل درخواست تجدید نظر خانواده نوهمی گونزالس، دانشجوی 23 ساله کالیفرنیایی است که در شورش سال 2015 توسط افراط گرایان اسلام گرا در پاریس به ضرب گلوله کشته شد، علیه رد دادگاه بدوی با شکایت خانواده او علیه یوتیوب.
این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، به طور غیرقانونی به کاربران خاصی ویدئوهایی از گروه “دولت اسلامی” که مسئولیت حملات پاریس را بر عهده گرفته است، توصیه کرده است.
(گزارش توسط اندرو گودسوارد؛ ویرایش توسط ویل دانهام)