تکنولوژی

پرونده دادگاه عالی ایالات متحده یوتیوب می تواند دفاعیات ChatGPT و AI را شکل دهد

هنگامی که دادگاه عالی ایالات متحده در ماه‌های آینده تصمیم بگیرد که آیا سپر قدرتمند محافظت از شرکت‌های اینترنتی را تضعیف کند، این حکم می‌تواند پیامدهایی برای فناوری‌های در حال رشد سریع مانند ربات چت هوش مصنوعی ChatGPT نیز داشته باشد.

قضات تا پایان ماه ژوئن فرصت دارند در مورد اینکه آیا YouTube Alphabet Inc به دلیل توصیه های ویدیویی خود به کاربران قابل شکایت است یا خیر، تصمیم بگیرند. این مورد آزمایش می‌کند که آیا قانون ایالات متحده که از پلتفرم‌های فناوری در برابر مسئولیت قانونی در قبال محتوای ارسال شده آنلاین توسط کاربرانشان محافظت می‌کند، زمانی که شرکت‌ها از الگوریتم‌هایی برای هدف قرار دادن کاربران با توصیه‌ها استفاده می‌کنند نیز اعمال می‌شود یا خیر.

تصمیم دادگاه در مورد این موارد فراتر از پلتفرم های رسانه های اجتماعی است. تصمیم او می‌تواند بر بحث‌های نوظهور در مورد اینکه آیا شرکت‌هایی که چت‌ربات‌های مولد هوش مصنوعی مانند ChatGPT از OpenAI، شرکتی که شرکت مایکروسافت در آن سرمایه‌گذار اصلی است، یا Bard از Google Alphabet باید در برابر ادعاهای قانونی مانند افترا یا نقض حق نسخه‌برداری محافظت شوند، تأثیر بگذارد. به گفته کارشناسان فنی و حقوقی، حریم خصوصی.

این به این دلیل است که متخصصان اضافه کردند که الگوریتم‌هایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت می‌کنند، به روشی مشابه با الگوریتم‌هایی که ویدیوها را به کاربران YouTube پیشنهاد می‌کنند، کار می‌کنند.

کامرون کری، عضو مهمان در اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً در مورد این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه آنقدر برای شکل‌دهی محتوا مهم است که مسئول شود یا خیر». “شما همان مشکلات ربات چت را دارید.”

مطلب پیشنهادی:  سیارک عظیم 210 فوتی در حال پرتاب به سمت زمین، ناسا در حالت آماده باش!

نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.

در خلال مشاجرات در ماه فوریه، قضات دیوان عالی درباره تضعیف حمایت های مندرج در قانون، که به عنوان بخش 230 قانون نجابت ارتباطات در سال 1996 شناخته می شود، تردید داشتند. اگرچه این پرونده مستقیماً شامل هوش مصنوعی مولد نمی شد، قاضی نیل گورسوش خاطرنشان کرد که ابزارهای هوش مصنوعی که ایجاد “شعر” و “جنجال” بعید است که از چنین حمایت قانونی برخوردار شوند.

این مورد تنها یکی از جنبه‌های گفتگوی نوظهور در مورد این است که آیا مصونیت بخش 230 باید برای مدل‌های هوش مصنوعی که بر روی داده‌های آنلاین موجود آموزش دیده‌اند اما قادر به ایجاد آثار اصلی هستند اعمال شود.

حفاظت های بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلت فرم فناوری اعمال می شود، نه برای اطلاعاتی که به توسعه یک شرکت کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود یا خیر، بررسی نکرده اند.

“عواقب اقدامات خود آنها”

سناتور دموکرات، ران وایدن، که در هنگام حضور در مجلس نمایندگان به تدوین این قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.

بخش 230 در مورد محافظت از مصرف کنندگان و سایت هایی برای میزبانی و سازماندهی سخنرانی مصرف کننده است. واین در بیانیه ای به رویترز گفت: این نباید از شرکت ها در برابر عواقب اقدامات و محصولات خود محافظت کند.

با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری برای حفظ بخش 230 تلاش می کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو کار می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.

مطلب پیشنهادی:  5G در هند: این فرودگاه هند اکنون آماده 5G است

“هوش مصنوعی در واقع چیزی ایجاد نمی کند. کارل سابو، نایب رئیس و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، گفت: محتوای موجود را می گیرد و آن را به شیوه ای متفاوت یا قالب متفاوتی قرار می دهد.

سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.

برخی از کارشناسان پیش‌بینی می‌کنند که دادگاه‌ها ممکن است راه وسطی را انتخاب کنند و زمینه‌ای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد می‌کند.

در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما ربات‌های چت مانند ChatGPT برای ایجاد پاسخ‌های تخیلی شناخته شده‌اند که به نظر می‌رسد با اطلاعاتی که در سایر نقاط آنلاین یافت نمی‌شوند ارتباطی نداشته باشند، وضعیتی که کارشناسان می‌گویند بعید است که محافظت شود.

هانی فرید، فن‌شناس و استاد دانشگاه کالیفرنیا، برکلی، گفت که این بحث که توسعه‌دهندگان هوش مصنوعی باید از طرح‌های قضایی در مورد مدل‌هایی که «برنامه‌نویسی، آموزش و اجرا کرده‌اند» مصون باشند، دور از ذهن است.

فرید گفت: «وقتی شرکت‌ها در دعاوی مدنی در قبال خسارات ناشی از محصولاتی که تولید می‌کنند مسئول شناخته می‌شوند، محصولات ایمن‌تری تولید می‌کنند. “و زمانی که آنها پاسخگو نباشند، محصولات کمتر ایمن تولید می کنند.”

پرونده پیش روی دیوان عالی شامل درخواست تجدید نظر خانواده نوهمی گونزالس، دانشجوی 23 ساله کالیفرنیایی است که در شورش سال 2015 توسط افراط گرایان اسلام گرا در پاریس به ضرب گلوله کشته شد، علیه رد دادگاه بدوی با شکایت خانواده او علیه یوتیوب.

مطلب پیشنهادی:  سیارک 2022 QX4 با سرعت 31644 کیلومتر در ساعت به زودی از کنار زمین عبور خواهد کرد! و ناسا هشدار می دهد

این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، به طور غیرقانونی به کاربران خاصی ویدئوهایی از گروه “دولت اسلامی” که مسئولیت حملات پاریس را بر عهده گرفته است، توصیه کرده است.

(گزارش توسط اندرو گودسوارد؛ ویرایش توسط ویل دانهام)

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا