هم انسان ها و هم هوش مصنوعی توهم دارند – اما نه به یک شکل
انتشار مدلهای زبان بزرگ همیشه با قابلیت (LLM) مانند GPT-3.5 در شش ماه گذشته مورد توجه بسیاری قرار گرفته است. با این حال، اعتماد به این مدلها کاهش یافته است زیرا کاربران متوجه شدهاند که این مدلها قابل خطا هستند – و درست مانند ما، کامل نیستند.
LLM که اطلاعات نادرست تولید می کند “توهم کننده” نامیده می شود و اکنون تلاش های تحقیقاتی فزاینده ای برای به حداقل رساندن این اثر وجود دارد. اما همانطور که ما با این وظیفه دست و پنجه نرم می کنیم، ارزش آن را دارد که به ظرفیت خودمان برای سوگیری و توهم فکر کنیم – و این که چگونه بر دقت LLMهایی که ایجاد می کنیم تأثیر می گذارد.
با درک رابطه بین پتانسیل توهمآمیز هوش مصنوعی و خودمان، میتوانیم شروع به ایجاد سیستمهای هوش مصنوعی هوشمندتر کنیم که در نهایت به کاهش خطای انسانی کمک میکند.
چگونه مردم توهم دارند
بر کسی پوشیده نیست که مردم اطلاعات را می سازند. گاهی آگاهانه و گاهی ناخودآگاه این کار را انجام می دهیم. دومی نتیجه سوگیری های شناختی یا “ابتکار” است: میانبرهای ذهنی که ما از طریق تجربیات گذشته ایجاد می کنیم.
این میانبرها اغلب از سر ناچاری به وجود می آیند. در هر لحظه، ما فقط میتوانیم مقدار محدودی از اطلاعات را پردازش کنیم که سیل حواسمان را فرا میگیرد، و تنها کسری از تمام اطلاعاتی را که تا به حال در معرض آن قرار گرفتهایم به خاطر میآوریم.
به این ترتیب، مغز ما باید از تداعی های آموخته شده برای پر کردن شکاف ها و پاسخ سریع به هر سوال یا معضلی که بر سر راه ما قرار می گیرد، استفاده کند. به عبارت دیگر، مغز ما بر اساس دانش محدود، پاسخ درست را حدس میزند. به این می گویند “confabulation” و نمونه ای از تعصب انسان است.
تعصبات ما می تواند منجر به قضاوت ضعیف شود. سوگیری اتوماسیون را در نظر بگیرید، که تمایل ما به ترجیح اطلاعات تولید شده توسط سیستم های خودکار (مانند ChatGPT) بر اطلاعات از منابع غیر خودکار است. این سوگیری می تواند باعث شود که اشتباهات را از دست بدهیم و حتی بر اساس اطلاعات نادرست عمل کنیم.
اکتشافی مرتبط دیگر اثر هاله است که در آن برداشت اولیه ما از چیزی بر تعاملات بعدی ما با آن تأثیر می گذارد. و سوگیری روانی، که توضیح می دهد چگونه ما اطلاعات ارائه شده به روشی آسان برای خواندن را ترجیح می دهیم.
نکته اصلی این است که تفکر انسان اغلب با سوگیری ها و تحریف های شناختی ما رنگ می شود و این تمایلات “توهم آمیز” عمدتاً خارج از آگاهی ما رخ می دهد.
هوش مصنوعی چگونه توهم ایجاد می کند
در زمینه LLM، توهم متفاوت است. LLM تلاشی برای صرفه جویی در منابع ذهنی محدود برای درک مؤثر جهان ندارد. “توهم” در این زمینه به سادگی یک تلاش ناموفق برای پیش بینی پاسخ مناسب به یک ورودی را توصیف می کند.
با این وجود، هنوز هم شباهتی بین نحوه توهم انسان ها و LLM ها وجود دارد، زیرا LLM ها نیز این کار را برای “پر کردن شکاف ها” انجام می دهند.
LLMها با پیشبینی اینکه کدام کلمه بیشتر در یک دنباله ظاهر میشود، پاسخی را ایجاد میکنند، بر اساس آنچه قبلاً آمده و ارتباطهایی که سیستم از طریق آموزش آموخته است.
مانند انسان ها، LLM ها سعی می کنند محتمل ترین پاسخ را پیش بینی کنند. برخلاف انسان ها، آنها این کار را بدون اینکه بفهمند چه می گویند انجام می دهند. اینجوری میتونه مزخرفات بیرون بیاد.
در مورد اینکه چرا LLM ها توهم دارند، عوامل مختلفی وجود دارد. Basic بر روی داده هایی که اشتباه یا ناقص هستند آموزش داده می شود. عوامل دیگر عبارتند از اینکه چگونه سیستم برای یادگیری از آن داده ها برنامه ریزی شده است و چگونه این برنامه نویسی با آموزش اضافی از انسان تقویت می شود.
بیا با هم بهتر کار کنیم
بنابراین اگر هم انسان ها و هم LLM ها مستعد توهم هستند (البته به دلایل مختلف)، اصلاح کدام یک راحت تر است؟
اصلاح داده ها و فرآیندهای یادگیری که زیربنای LLM هستند ممکن است ساده تر از اصلاح خودمان به نظر برسد. اما این عوامل انسانی را که بر سیستمهای هوش مصنوعی تأثیر میگذارند در نظر نمیگیرد (و نمونهای از سوگیری انسانی دیگری است که به عنوان خطای اسناد اساسی شناخته میشود).
واقعیت این است که ایرادات ما و نقص های فناوری ما به طور جدایی ناپذیری در هم تنیده شده اند، بنابراین رفع یکی به رفع دیگری کمک می کند. در اینجا چند راه وجود دارد که می توانیم این کار را انجام دهیم.
مدیریت مسئول داده ها سوگیری ها در هوش مصنوعی اغلب از داده های آموزشی محدود یا مغرضانه ناشی می شوند. راههای پرداختن به این موضوع شامل اطمینان از متنوع و معرف بودن دادههای آموزشی، ایجاد الگوریتمهای آگاه از تعصب، و اجرای تکنیکهایی مانند متعادلسازی دادهها برای حذف الگوهای ناهنجار یا تبعیضآمیز است.
شفافیت و هوش مصنوعی قابل توضیح با وجود اقدامات فوق، انحرافات در هوش مصنوعی ممکن است باقی بماند و تشخیص آن دشوار باشد. با مطالعه نحوه ورود و انتشار سوگیری ها در یک سیستم، می توانیم وجود سوگیری ها را در نتایج بهتر توضیح دهیم. این اساس «هوش مصنوعی قابل توضیح» است که هدف آن شفافتر کردن فرآیندهای تصمیمگیری در سیستمهای هوش مصنوعی است.
در مرکز قرار دادن منافع عمومی شناخت، مدیریت و یادگیری از سوگیری ها در هوش مصنوعی مستلزم مسئولیت پذیری انسان و ادغام ارزش های انسانی در سیستم های هوش مصنوعی است. دستیابی به این امر به معنای اطمینان از این است که ذینفعان نماینده مردمی با پیشینه ها، فرهنگ ها و دیدگاه های مختلف هستند.
با همکاری در این راه، این امکان برای ما وجود دارد که سیستمهای هوش مصنوعی هوشمندتری بسازیم که میتواند به ما در کنترل همه توهمات کمک کند.
به عنوان مثال، هوش مصنوعی در مراقبت های بهداشتی برای تجزیه و تحلیل تصمیمات انسانی استفاده می شود. این سیستمهای یادگیری ماشینی ناسازگاریها را در دادههای انسانی تشخیص میدهند و اعلانهایی را ارائه میکنند که توجه پزشک را به آنها جلب میکند. به این ترتیب، تصمیمات تشخیصی را می توان با حفظ مسئولیت انسانی بهبود بخشید.
در زمینه رسانه های اجتماعی، از هوش مصنوعی برای کمک به آموزش ناظران انسانی در هنگام تلاش برای شناسایی سوء استفاده استفاده می شود، مانند پروژه گشت ترول با هدف مقابله با خشونت آنلاین علیه زنان.
در مثالی دیگر، ترکیب هوش مصنوعی و تصاویر ماهوارهای میتواند به محققان کمک کند تا تفاوتهای روشنایی شبانه را در مناطق مختلف تجزیه و تحلیل کنند و از آن به عنوان نمایندهای برای فقر نسبی یک منطقه (جایی که نور بیشتر با فقر کمتر همراه است) استفاده کنند.
مهمتر از همه، همانطور که ما کار اساسی بهبود دقت LLM را انجام می دهیم، نباید نادیده بگیریم که چگونه عدم دقت فعلی آنها منعکس کننده دقت ما است.