وکیل، متاسفم برای استنادات جعلی دادگاه ایجاد شده توسط ChatGPT
در ماههای اخیر صحبتهای زیادی در مورد اینکه چگونه موج جدید چتباتهای مبتنی بر هوش مصنوعی، از جمله ChatGPT، میتواند بسیاری از صنایع، از جمله حرفه حقوقی را متزلزل کند، مطرح شده است.
با این حال، با قضاوت بر اساس آنچه اخیراً در پرونده ای در نیویورک رخ داده است، به نظر می رسد که ممکن است مدتی طول بکشد تا وکلای ماهر توسط فناوری از بین بروند.
ماجرای عجیب زمانی شروع شد که روبرتو ماتا از یک شرکت هواپیمایی کلمبیایی پس از ادعای مجروح شدنش در پرواز به نیویورک شکایت کرد.
نیویورک تایمز گزارش می دهد که شرکت هواپیمایی Avianca از قاضی خواسته است تا پرونده را رد کند، بنابراین تیم حقوقی ماتا با ذکر 12 مورد مشابه که رخ داده است، در تلاشی برای متقاعد کردن قاضی اجازه داد تا پرونده مشتری خود را ادامه دهد، جمع آوری کرد.
مشکل این بود که وکلای شرکت هواپیمایی و قاضی نتوانستند مدرکی در مورد موارد ذکر شده در خلاصه پیدا کنند. چرا؟ زیرا ChatGPT همه آنها را اختراع کرده بود.
نویسنده خلاصه، Stephen A. Schwartz – یک وکیل بسیار با تجربه در شرکت Levidow, Levidow & Oberman – در قولنامه ای اعتراف کرد که از چت ربات معروف OpenAI ChatGPT برای جستجوی چنین مواردی استفاده کرده است، اما گفت که “افشا کرده است که غیر قابل اعتماد باشد.
شوارتز به قاضی گفت که قبلا از ChatGPT استفاده نکرده بود و “بنابراین از احتمال نادرست بودن محتوای آن بی اطلاع بود.”
در ایجاد خلاصه، شوارتز حتی از ChatGPT خواست تا تأیید کند که این حوادث واقعاً اتفاق افتاده است. چت بات همیشه مفید پاسخ مثبت داد و گفت که اطلاعات مربوط به آنها را می توان در “پایگاه های اطلاعاتی قانونی معتبر” یافت.
وکیلی در مرکز طوفان گفت که از استفاده از ChatGPT برای ایجاد خلاصه “عمیقا پشیمان است” و تاکید کرد که “در آینده هرگز این کار را بدون تأیید صحت کامل انجام نخواهد داد”.
قاضی کاستل با بررسی آنچه او به عنوان یک پرونده حقوقی مملو از “احکام نادرست دادگاه، با استنادات نادرست و استنادات داخلی نادرست” توصیف کرد و وضعیت را بیسابقه توصیف کرد، دستور داد تا اوایل ماه آینده یک جلسه برای بررسی مجازاتهای احتمالی برگزار شود.
در حالی که آنها در نحوه تولید متن با کیفیت بالا و روان هستند، ChatGPT و دیگر چتباتهای مانند آن نیز به دلیل ساختن چیزها و ارائه آنها به گونهای که گویی واقعی هستند بدنام هستند – چیزی که شوارتز به سختی یاد گرفت. این پدیده به عنوان “توهم” شناخته می شود و یکی از بزرگترین چالش های پیش روی توسعه دهندگان انسانی در پشت ربات های چت است زیرا آنها به دنبال رفع این چین و چروک بسیار مشکل ساز هستند.
در یکی دیگر از نمونههای اخیر یک ابزار هوش مصنوعی مولد توهمآور، یک شهردار استرالیایی ChatGPT را متهم کرد که درباره او دروغهایی ایجاد کرده است، از جمله اینکه بیش از یک دهه پیش در حالی که برای یک بانک کار میکرد به دلیل رشوه به زندان افتاد.
شهردار، برایان هود، در واقع یک افشاگر در این پرونده بود و هرگز به جرمی متهم نشد، بنابراین وقتی مردم شروع به اطلاع رسانی درباره بازنویسی داستان توسط چت بات کردند، بسیار ناراحت شد.
توصیه های سردبیران