کامپیوتر

خالق ChatGPT که هدف آن از بین بردن توهمات چت بات است

علیرغم همه هیاهویی که پیرامون ChatGPT و چت ربات های مشابه مجهز به هوش مصنوعی وجود دارد، ابزارهای مبتنی بر متن هنوز هم مشکلات جدی برای حل کردن دارند.

از جمله تمایل آنها به ساختن چیزها و نادیده گرفتن آنها به عنوان واقعیت است، پدیده ای که به عنوان “توهم” شناخته می شود. همانطور که می توانید تصور کنید، ارائه نادرست ها به عنوان واقعیت به کسی که از یکی از موج جدید چت بات های قدرتمند استفاده می کند می تواند عواقب جدی داشته باشد.

نمای نزدیک از لوگوهای ChatGPT و OpenAI.

چنین مشکلاتی در حادثه اخیر برجسته شد که در آن یک وکیل با تجربه نیویورک مواردی را – پیشنهاد ChatGPT – ذکر کرد که معلوم شد هرگز اتفاق نیفتاده است. ممکن است وکیل در نتیجه اقدامات خود مجازات شود.

حادثه دیگری در آوریل مورد توجه گسترده قرار گرفت، زمانی که ChatGPT ظاهراً تاریخ را با گفتن اینکه یک شهردار استرالیایی به دلیل رشوه در حین کار برای یک بانک زندانی شد، بازنویسی کرد، در حالی که در واقع او یک خبرچین پرونده بود.

مهندسان OpenAI در تلاش برای قابل اعتمادتر کردن فناوری چت بات خود نشان دادند که در حال حاضر تلاش های خود را بر روی بهبود نرم افزار متمرکز کرده اند تا این رویدادهای مشکل ساز را کاهش دهند و امیدواریم حذف شوند.

در یک مقاله تحقیقاتی که چهارشنبه منتشر شد و توسط CNBC انتخاب شد، OpenAI گفت ربات‌های چت «مایل به ساختن حقایق در لحظات عدم اطمینان را نشان می‌دهند» و افزود: «این توهمات به‌ویژه در زمینه‌هایی که نیاز به استدلال چند مرحله‌ای دارند، به عنوان یک خطای منطقی مشکل‌ساز هستند. برای شکست یک تصمیم بسیار بزرگتر کافی است.

مطلب پیشنهادی:  Nvidia RTX 4060 Ti در مقابل RTX 4070: پردازنده گرافیکی میان رده انویدیا

برای رسیدگی به گام‌های اشتباه ربات‌های چت، مهندسان OpenAI در حال کار بر روی روش‌هایی هستند که مدل‌های هوش مصنوعی خود به‌جای اینکه فقط در نقطه‌ی نتیجه‌گیری به خودشان پاداش دهند، برای خروجی داده‌های صحیح در حین حرکت به سمت پاسخ، به خود پاداش دهند. به گفته مهندسان، این سیستم می تواند نتایج بهتری به همراه داشته باشد، زیرا شامل بیش از یک زنجیره فکری انسانی است.

اما برخی از کارشناسان در مورد این کار ابراز تردید کرده‌اند و به CNBC گفته‌اند که تا زمانی که در ChatGPT گنجانده نشود، کار چندان خوبی نخواهد داشت، که در عین حال به توهمات ادامه خواهد داد. OpenAI نگفته است که آیا یا چه زمانی ممکن است کار خود را در ابزارهای هوش مصنوعی مولد خود بگنجاند یا خیر.

در حالی که خوب است بدانید که OpenAI در حال کار بر روی رفع این مشکل است، ممکن است مدتی طول بکشد تا شاهد بهبودی باشیم. در همین حال، همانطور که خود OpenAI می‌گوید، ChatGPT ممکن است گهگاه اطلاعات نادرستی تولید کند، بنابراین اگر پاسخ‌های آن بخشی از وظایف مهم هستند، حتماً تأیید کنید.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا