تکنولوژی

هم انسان ها و هم هوش مصنوعی توهم دارند – اما نه به یک شکل

انتشار مدل‌های زبان بزرگ همیشه با قابلیت (LLM) مانند GPT-3.5 در شش ماه گذشته مورد توجه بسیاری قرار گرفته است. با این حال، اعتماد به این مدل‌ها کاهش یافته است زیرا کاربران متوجه شده‌اند که این مدل‌ها قابل خطا هستند – و درست مانند ما، کامل نیستند.

LLM که اطلاعات نادرست تولید می کند “توهم کننده” نامیده می شود و اکنون تلاش های تحقیقاتی فزاینده ای برای به حداقل رساندن این اثر وجود دارد. اما همانطور که ما با این وظیفه دست و پنجه نرم می کنیم، ارزش آن را دارد که به ظرفیت خودمان برای سوگیری و توهم فکر کنیم – و این که چگونه بر دقت LLMهایی که ایجاد می کنیم تأثیر می گذارد.

با درک رابطه بین پتانسیل توهم‌آمیز هوش مصنوعی و خودمان، می‌توانیم شروع به ایجاد سیستم‌های هوش مصنوعی هوشمندتر کنیم که در نهایت به کاهش خطای انسانی کمک می‌کند.

چگونه مردم توهم دارند

بر کسی پوشیده نیست که مردم اطلاعات را می سازند. گاهی آگاهانه و گاهی ناخودآگاه این کار را انجام می دهیم. دومی نتیجه سوگیری های شناختی یا “ابتکار” است: میانبرهای ذهنی که ما از طریق تجربیات گذشته ایجاد می کنیم.

این میانبرها اغلب از سر ناچاری به وجود می آیند. در هر لحظه، ما فقط می‌توانیم مقدار محدودی از اطلاعات را پردازش کنیم که سیل حواس‌مان را فرا می‌گیرد، و تنها کسری از تمام اطلاعاتی را که تا به حال در معرض آن قرار گرفته‌ایم به خاطر می‌آوریم.

به این ترتیب، مغز ما باید از تداعی های آموخته شده برای پر کردن شکاف ها و پاسخ سریع به هر سوال یا معضلی که بر سر راه ما قرار می گیرد، استفاده کند. به عبارت دیگر، مغز ما بر اساس دانش محدود، پاسخ درست را حدس می‌زند. به این می گویند “confabulation” و نمونه ای از تعصب انسان است.

مطلب پیشنهادی:  FT می گوید ایلان ماسک به مشکلات وام تجاری گلدمن ساکس اضافه می کند

تعصبات ما می تواند منجر به قضاوت ضعیف شود. سوگیری اتوماسیون را در نظر بگیرید، که تمایل ما به ترجیح اطلاعات تولید شده توسط سیستم های خودکار (مانند ChatGPT) بر اطلاعات از منابع غیر خودکار است. این سوگیری می تواند باعث شود که اشتباهات را از دست بدهیم و حتی بر اساس اطلاعات نادرست عمل کنیم.

اکتشافی مرتبط دیگر اثر هاله است که در آن برداشت اولیه ما از چیزی بر تعاملات بعدی ما با آن تأثیر می گذارد. و سوگیری روانی، که توضیح می دهد چگونه ما اطلاعات ارائه شده به روشی آسان برای خواندن را ترجیح می دهیم.

نکته اصلی این است که تفکر انسان اغلب با سوگیری ها و تحریف های شناختی ما رنگ می شود و این تمایلات “توهم آمیز” عمدتاً خارج از آگاهی ما رخ می دهد.

هوش مصنوعی چگونه توهم ایجاد می کند

در زمینه LLM، توهم متفاوت است. LLM تلاشی برای صرفه جویی در منابع ذهنی محدود برای درک مؤثر جهان ندارد. “توهم” در این زمینه به سادگی یک تلاش ناموفق برای پیش بینی پاسخ مناسب به یک ورودی را توصیف می کند.

با این وجود، هنوز هم شباهتی بین نحوه توهم انسان ها و LLM ها وجود دارد، زیرا LLM ها نیز این کار را برای “پر کردن شکاف ها” انجام می دهند.

LLMها با پیش‌بینی اینکه کدام کلمه بیشتر در یک دنباله ظاهر می‌شود، پاسخی را ایجاد می‌کنند، بر اساس آنچه قبلاً آمده و ارتباط‌هایی که سیستم از طریق آموزش آموخته است.

مانند انسان ها، LLM ها سعی می کنند محتمل ترین پاسخ را پیش بینی کنند. برخلاف انسان ها، آنها این کار را بدون اینکه بفهمند چه می گویند انجام می دهند. اینجوری میتونه مزخرفات بیرون بیاد.

مطلب پیشنهادی:  لابی های Uber، از "Kill Switch" برای مسدود کردن تنظیم کننده ها استفاده می کند: گزارش

در مورد اینکه چرا LLM ها توهم دارند، عوامل مختلفی وجود دارد. Basic بر روی داده هایی که اشتباه یا ناقص هستند آموزش داده می شود. عوامل دیگر عبارتند از اینکه چگونه سیستم برای یادگیری از آن داده ها برنامه ریزی شده است و چگونه این برنامه نویسی با آموزش اضافی از انسان تقویت می شود.

بیا با هم بهتر کار کنیم

بنابراین اگر هم انسان ها و هم LLM ها مستعد توهم هستند (البته به دلایل مختلف)، اصلاح کدام یک راحت تر است؟

اصلاح داده ها و فرآیندهای یادگیری که زیربنای LLM هستند ممکن است ساده تر از اصلاح خودمان به نظر برسد. اما این عوامل انسانی را که بر سیستم‌های هوش مصنوعی تأثیر می‌گذارند در نظر نمی‌گیرد (و نمونه‌ای از سوگیری انسانی دیگری است که به عنوان خطای اسناد اساسی شناخته می‌شود).

واقعیت این است که ایرادات ما و نقص های فناوری ما به طور جدایی ناپذیری در هم تنیده شده اند، بنابراین رفع یکی به رفع دیگری کمک می کند. در اینجا چند راه وجود دارد که می توانیم این کار را انجام دهیم.

مدیریت مسئول داده ها سوگیری ها در هوش مصنوعی اغلب از داده های آموزشی محدود یا مغرضانه ناشی می شوند. راه‌های پرداختن به این موضوع شامل اطمینان از متنوع و معرف بودن داده‌های آموزشی، ایجاد الگوریتم‌های آگاه از تعصب، و اجرای تکنیک‌هایی مانند متعادل‌سازی داده‌ها برای حذف الگوهای ناهنجار یا تبعیض‌آمیز است.

شفافیت و هوش مصنوعی قابل توضیح با وجود اقدامات فوق، انحرافات در هوش مصنوعی ممکن است باقی بماند و تشخیص آن دشوار باشد. با مطالعه نحوه ورود و انتشار سوگیری ها در یک سیستم، می توانیم وجود سوگیری ها را در نتایج بهتر توضیح دهیم. این اساس «هوش مصنوعی قابل توضیح» است که هدف آن شفاف‌تر کردن فرآیندهای تصمیم‌گیری در سیستم‌های هوش مصنوعی است.

مطلب پیشنهادی:  چین از ماه برای نابودی سیارک های خطرناک استفاده خواهد کرد. طرح عجیب را بررسی کنید

در مرکز قرار دادن منافع عمومی شناخت، مدیریت و یادگیری از سوگیری ها در هوش مصنوعی مستلزم مسئولیت پذیری انسان و ادغام ارزش های انسانی در سیستم های هوش مصنوعی است. دستیابی به این امر به معنای اطمینان از این است که ذینفعان نماینده مردمی با پیشینه ها، فرهنگ ها و دیدگاه های مختلف هستند.

با همکاری در این راه، این امکان برای ما وجود دارد که سیستم‌های هوش مصنوعی هوشمندتری بسازیم که می‌تواند به ما در کنترل همه توهمات کمک کند.

به عنوان مثال، هوش مصنوعی در مراقبت های بهداشتی برای تجزیه و تحلیل تصمیمات انسانی استفاده می شود. این سیستم‌های یادگیری ماشینی ناسازگاری‌ها را در داده‌های انسانی تشخیص می‌دهند و اعلان‌هایی را ارائه می‌کنند که توجه پزشک را به آنها جلب می‌کند. به این ترتیب، تصمیمات تشخیصی را می توان با حفظ مسئولیت انسانی بهبود بخشید.

در زمینه رسانه های اجتماعی، از هوش مصنوعی برای کمک به آموزش ناظران انسانی در هنگام تلاش برای شناسایی سوء استفاده استفاده می شود، مانند پروژه گشت ترول با هدف مقابله با خشونت آنلاین علیه زنان.

در مثالی دیگر، ترکیب هوش مصنوعی و تصاویر ماهواره‌ای می‌تواند به محققان کمک کند تا تفاوت‌های روشنایی شبانه را در مناطق مختلف تجزیه و تحلیل کنند و از آن به عنوان نماینده‌ای برای فقر نسبی یک منطقه (جایی که نور بیشتر با فقر کمتر همراه است) استفاده کنند.

مهمتر از همه، همانطور که ما کار اساسی بهبود دقت LLM را انجام می دهیم، نباید نادیده بگیریم که چگونه عدم دقت فعلی آنها منعکس کننده دقت ما است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا