خالق ChatGPT که هدف آن از بین بردن توهمات چت بات است
علیرغم همه هیاهویی که پیرامون ChatGPT و چت ربات های مشابه مجهز به هوش مصنوعی وجود دارد، ابزارهای مبتنی بر متن هنوز هم مشکلات جدی برای حل کردن دارند.
از جمله تمایل آنها به ساختن چیزها و نادیده گرفتن آنها به عنوان واقعیت است، پدیده ای که به عنوان “توهم” شناخته می شود. همانطور که می توانید تصور کنید، ارائه نادرست ها به عنوان واقعیت به کسی که از یکی از موج جدید چت بات های قدرتمند استفاده می کند می تواند عواقب جدی داشته باشد.
چنین مشکلاتی در حادثه اخیر برجسته شد که در آن یک وکیل با تجربه نیویورک مواردی را – پیشنهاد ChatGPT – ذکر کرد که معلوم شد هرگز اتفاق نیفتاده است. ممکن است وکیل در نتیجه اقدامات خود مجازات شود.
حادثه دیگری در آوریل مورد توجه گسترده قرار گرفت، زمانی که ChatGPT ظاهراً تاریخ را با گفتن اینکه یک شهردار استرالیایی به دلیل رشوه در حین کار برای یک بانک زندانی شد، بازنویسی کرد، در حالی که در واقع او یک خبرچین پرونده بود.
مهندسان OpenAI در تلاش برای قابل اعتمادتر کردن فناوری چت بات خود نشان دادند که در حال حاضر تلاش های خود را بر روی بهبود نرم افزار متمرکز کرده اند تا این رویدادهای مشکل ساز را کاهش دهند و امیدواریم حذف شوند.
در یک مقاله تحقیقاتی که چهارشنبه منتشر شد و توسط CNBC انتخاب شد، OpenAI گفت رباتهای چت «مایل به ساختن حقایق در لحظات عدم اطمینان را نشان میدهند» و افزود: «این توهمات بهویژه در زمینههایی که نیاز به استدلال چند مرحلهای دارند، به عنوان یک خطای منطقی مشکلساز هستند. برای شکست یک تصمیم بسیار بزرگتر کافی است.
برای رسیدگی به گامهای اشتباه رباتهای چت، مهندسان OpenAI در حال کار بر روی روشهایی هستند که مدلهای هوش مصنوعی خود بهجای اینکه فقط در نقطهی نتیجهگیری به خودشان پاداش دهند، برای خروجی دادههای صحیح در حین حرکت به سمت پاسخ، به خود پاداش دهند. به گفته مهندسان، این سیستم می تواند نتایج بهتری به همراه داشته باشد، زیرا شامل بیش از یک زنجیره فکری انسانی است.
اما برخی از کارشناسان در مورد این کار ابراز تردید کردهاند و به CNBC گفتهاند که تا زمانی که در ChatGPT گنجانده نشود، کار چندان خوبی نخواهد داشت، که در عین حال به توهمات ادامه خواهد داد. OpenAI نگفته است که آیا یا چه زمانی ممکن است کار خود را در ابزارهای هوش مصنوعی مولد خود بگنجاند یا خیر.
در حالی که خوب است بدانید که OpenAI در حال کار بر روی رفع این مشکل است، ممکن است مدتی طول بکشد تا شاهد بهبودی باشیم. در همین حال، همانطور که خود OpenAI میگوید، ChatGPT ممکن است گهگاه اطلاعات نادرستی تولید کند، بنابراین اگر پاسخهای آن بخشی از وظایف مهم هستند، حتماً تأیید کنید.
توصیه های سردبیران