کامپیوتر

وکلای نیویورک به دلیل استفاده از موارد جعلی ChatGPT در دادگاه جریمه شدند


استفاده نادرست از ChatGPT منجر به جریمه 5000 دلاری برای یک شرکت حقوقی در نیویورک شده است.

استیون شوارتز، وکیل دادگستری، پس از شنیدن مطالب بسیار در مورد چت ربات چشمگیر مبتنی بر هوش مصنوعی OpenAI، تصمیم گرفت از آن برای تحقیق استفاده کند و استنادات پرونده ایجاد شده توسط ChatGPT را به یادداشت قانونی ارسال شده به قاضی در اوایل سال جاری اضافه کرد. اما به زودی مشخص شد که این موارد کاملاً توسط ربات چت ساخته شده است.

قاضی منطقه ای ایالات متحده، پی کوین کاستل، روز پنجشنبه به وکلای استیون شوارتز و پیتر لودوکا، که این پرونده را از همکارشان تحویل گرفتند، و شرکت حقوقی آنها Levidow, Levidow & Oberman، دستور داد 5000 دلار جریمه بپردازند.

قاضی گفت که وکلا مرتکب “فرار عمدی و اظهارات نادرست و گمراه کننده به دادگاه” شده اند و افزود که آنها با تهیه یادداشت نوشته شده با هوش مصنوعی قبل از ایستادن در پشت “نظرات نادرست پس از احراز مقررات قانونی” “مسئولیت خود را رها کرده اند”. وجود زیر سوال است.”

کاستل ادامه داد: «مضرات زیادی از ارائه نظرات نادرست ناشی می شود. طرف مقابل برای کشف تقلب، وقت و هزینه خود را تلف می کند. وقت دادگاه از سایر تعهدات مهم گرفته می شود.»

قاضی افزود که اقدام وکلا “تشویق بدبینی نسبت به حرفه وکالت و سیستم قضایی آمریکا است.”

شرکت حقوقی منهتن گفت که “با احترام” با نظر دادگاه مخالف است و آن را “اشتباهی در حسن نیت” توصیف کرد.

در یک جلسه دادگاه مرتبط در اوایل این ماه، شوارتز گفت که می‌خواهد «صادقانه از آنچه اتفاق افتاده است عذرخواهی کند» و توضیح داد که فکر می‌کند از یک موتور جستجو استفاده می‌کند و نمی‌دانست که ابزار هوش مصنوعی می‌تواند دروغ‌پردازی کند. وی با بیان اینکه عمیقا از کار خود پشیمان است، افزود: من هم از نظر حرفه ای و هم از لحاظ شخصی رنج کشیده ام. [because of] تبلیغات گسترده ای که باعث این موضوع شد. من به طور همزمان شرمنده، تحقیر شده و به شدت پشیمان هستم.»

مطلب پیشنهادی:  3 مانیتور بازی آینده که ارزش هیجان را دارد

این حادثه مربوط به پرونده ای است که توسط شرکت حقوقی مربوط به مسافری است که از شرکت هواپیمایی کلمبیایی آویانکا پس از ادعای مجروح شدنش در پرواز به نیویورک شکایت کرد.

Avianca از قاضی خواست تا پرونده را رد کند، بنابراین تیم حقوقی مسافر با ذکر شش پرونده مشابه، سعی کردند قاضی را متقاعد کنند که پرونده موکل خود را ادامه دهد. شوارتز این موارد را با پرس و جو ChatGPT پیدا کرد، اما نتوانست صحت نتایج را تأیید کند. تیم حقوقی Avianca زمانی که اعلام کرد نمی تواند موارد مندرج در خلاصه را پیدا کند، زنگ خطر را به صدا درآورد.

قاضی در دستوری جداگانه روز پنجشنبه با درخواست آویانکا برای رد پرونده علیه آن موافقت کرد و به کل قسمت متاسف پایان داد.

ChatGPT و دیگر ربات‌های چت مانند آن در ماه‌های اخیر به دلیل توانایی‌شان در مکالمه به شیوه‌ای شبیه به انسان و انجام ماهرانه مجموعه‌ای از وظایف مبتنی بر متن توجه زیادی را به خود جلب کرده‌اند. اما آنها همچنین به ساختن چیزها و ارائه آنها به گونه ای که گویی واقعی هستند مشهور هستند. آنقدر رایج است که حتی یک اصطلاح برای آن وجود دارد: “توهم”.

کسانی که بر روی ابزارهای نسل هوش مصنوعی کار می کنند، در حال تحقیق در مورد راه هایی برای کاهش توهم هستند، اما تا آن زمان، به کاربران توصیه می شود هر “حقایق” را که چت بات ها بیرون می ریزند، به دقت بررسی کنند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا