کامپیوتر

وکیل، متاسفم برای استنادات جعلی دادگاه ایجاد شده توسط ChatGPT


در ماه‌های اخیر صحبت‌های زیادی در مورد اینکه چگونه موج جدید چت‌بات‌های مبتنی بر هوش مصنوعی، از جمله ChatGPT، می‌تواند بسیاری از صنایع، از جمله حرفه حقوقی را متزلزل کند، مطرح شده است.

با این حال، با قضاوت بر اساس آنچه اخیراً در پرونده ای در نیویورک رخ داده است، به نظر می رسد که ممکن است مدتی طول بکشد تا وکلای ماهر توسط فناوری از بین بروند.

ماجرای عجیب زمانی شروع شد که روبرتو ماتا از یک شرکت هواپیمایی کلمبیایی پس از ادعای مجروح شدنش در پرواز به نیویورک شکایت کرد.

نیویورک تایمز گزارش می دهد که شرکت هواپیمایی Avianca از قاضی خواسته است تا پرونده را رد کند، بنابراین تیم حقوقی ماتا با ذکر 12 مورد مشابه که رخ داده است، در تلاشی برای متقاعد کردن قاضی اجازه داد تا پرونده مشتری خود را ادامه دهد، جمع آوری کرد.

مشکل این بود که وکلای شرکت هواپیمایی و قاضی نتوانستند مدرکی در مورد موارد ذکر شده در خلاصه پیدا کنند. چرا؟ زیرا ChatGPT همه آنها را اختراع کرده بود.

نویسنده خلاصه، Stephen A. Schwartz – یک وکیل بسیار با تجربه در شرکت Levidow, Levidow & Oberman – در قولنامه ای اعتراف کرد که از چت ربات معروف OpenAI ChatGPT برای جستجوی چنین مواردی استفاده کرده است، اما گفت که “افشا کرده است که غیر قابل اعتماد باشد.

شوارتز به قاضی گفت که قبلا از ChatGPT استفاده نکرده بود و “بنابراین از احتمال نادرست بودن محتوای آن بی اطلاع بود.”

در ایجاد خلاصه، شوارتز حتی از ChatGPT خواست تا تأیید کند که این حوادث واقعاً اتفاق افتاده است. چت بات همیشه مفید پاسخ مثبت داد و گفت که اطلاعات مربوط به آنها را می توان در “پایگاه های اطلاعاتی قانونی معتبر” یافت.

مطلب پیشنهادی:  AMD قبل از سال 2025 پردازنده های گرافیکی 700 واتی را پیش بینی می کند، اما برنامه ای دارد

وکیلی در مرکز طوفان گفت که از استفاده از ChatGPT برای ایجاد خلاصه “عمیقا پشیمان است” و تاکید کرد که “در آینده هرگز این کار را بدون تأیید صحت کامل انجام نخواهد داد”.

قاضی کاستل با بررسی آنچه او به عنوان یک پرونده حقوقی مملو از “احکام نادرست دادگاه، با استنادات نادرست و استنادات داخلی نادرست” توصیف کرد و وضعیت را بی‌سابقه توصیف کرد، دستور داد تا اوایل ماه آینده یک جلسه برای بررسی مجازات‌های احتمالی برگزار شود.

در حالی که آنها در نحوه تولید متن با کیفیت بالا و روان هستند، ChatGPT و دیگر چت‌بات‌های مانند آن نیز به دلیل ساختن چیزها و ارائه آن‌ها به گونه‌ای که گویی واقعی هستند بدنام هستند – چیزی که شوارتز به سختی یاد گرفت. این پدیده به عنوان “توهم” شناخته می شود و یکی از بزرگترین چالش های پیش روی توسعه دهندگان انسانی در پشت ربات های چت است زیرا آنها به دنبال رفع این چین و چروک بسیار مشکل ساز هستند.

در یکی دیگر از نمونه‌های اخیر یک ابزار هوش مصنوعی مولد توهم‌آور، یک شهردار استرالیایی ChatGPT را متهم کرد که درباره او دروغ‌هایی ایجاد کرده است، از جمله اینکه بیش از یک دهه پیش در حالی که برای یک بانک کار می‌کرد به دلیل رشوه به زندان افتاد.

شهردار، برایان هود، در واقع یک افشاگر در این پرونده بود و هرگز به جرمی متهم نشد، بنابراین وقتی مردم شروع به اطلاع رسانی درباره بازنویسی داستان توسط چت بات کردند، بسیار ناراحت شد.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا