دانشمندان هوش مصنوعی می گویند که با آموزش داده های متنی، هوش مصنوعی می تواند تحقیقات علوم اجتماعی را تغییر دهد
دانشمندان دانشگاه واترلو و تورنتو (کانادا)، دانشگاه ییل و دانشگاه پنسیلوانیا در ایالات متحده در مقاله ای اعلام کردند که هوش مصنوعی (AI) می تواند ماهیت تحقیقات علوم اجتماعی را جایگزین یا تغییر دهد.
ایگور گروسمن، استاد روانشناسی در واترلو، می گوید: «آنچه که ما می خواستیم در این مقاله بررسی کنیم این است که چگونه روش های تحقیقاتی در علوم اجتماعی را می توان منطبق کرد، حتی دوباره اختراع کرد تا از قدرت هوش مصنوعی استفاده کرد.
مدلهای زبان در مقیاس بزرگ (LLM) که ChatGPT و Google Bard نمونههایی از آنها هستند، پس از آموزش بر روی مقادیر انبوه دادههای متنی، به طور فزایندهای قادر به شبیهسازی پاسخها و رفتارهای انسانی هستند.
به گفته آنها، این فرصت های جدیدی برای آزمایش نظریه ها و فرضیه ها در مورد رفتار انسان در مقیاس و سرعت بزرگ ارائه می دهد.
آنها گفتند که اهداف تحقیقات علوم اجتماعی شامل به دست آوردن یک نمایش کلی از ویژگی های افراد، گروه ها، فرهنگ ها و پویایی آنها است.
با ظهور سیستمهای هوش مصنوعی پیشرفته، دانشمندان گفتند که چشمانداز جمعآوری دادههای علوم اجتماعی، که به طور سنتی به روشهایی مانند پرسشنامه، آزمونهای رفتاری، مطالعات مشاهدهای و آزمایشها متکی است، میتواند تغییر کند.
گروسمن گفت: «مدلهای هوش مصنوعی میتوانند طیف گستردهای از تجربیات و دیدگاههای انسانی را نشان دهند و احتمالاً به آنها درجه آزادی بالاتری برای ایجاد پاسخهای متنوع نسبت به روشهای متداول مبتنی بر انسان میدهد، که میتواند به کاهش نگرانیهای تعمیمپذیری در تحقیقات کمک کند.
فیلیپ تتلاک، پروفسور روانشناسی پن، می گوید: “LLM ها می توانند شرکت کنندگان انسانی را برای جمع آوری داده جابجا کنند.”
در واقع، LLM ها قبلاً توانایی خود را در ایجاد پاسخ های نظرسنجی واقع بینانه در مورد رفتار مصرف کننده نشان داده اند.
تتلاک میگوید: «مدلهای زبان بزرگ، پیشبینی مبتنی بر انسان را در 3 سال آینده متحول خواهند کرد.
تتلاک همچنین گفت که در بحثهای سیاسی جدی، منطقی نیست که انسانها بدون کمک هوش مصنوعی جرات قضاوتهای احتمالی را داشته باشند.
من به آن 90 درصد شانس می دهم. البته نحوه واکنش مردم به همه اینها موضوع دیگری است.»
به گفته دانشمندان، مطالعات با استفاده از شرکتکنندگان شبیهسازی شده میتواند برای ایجاد فرضیههای جدید مورد استفاده قرار گیرد که سپس میتواند در جمعیتهای انسانی اعتبارسنجی شود، اگرچه نظرات در مورد امکانسنجی این کاربرد هوش مصنوعی متفاوت است.
دانشمندان هشدار می دهند که LLM ها اغلب برای حذف سوگیری های اجتماعی-فرهنگی که برای افراد در زندگی واقعی وجود دارد آموزش می بینند. آنها در این مقاله گفتند که این بدان معناست که جامعه شناسانی که از هوش مصنوعی به این روش استفاده می کنند، قادر به مطالعه این سوگیری ها نخواهند بود.
داون پارکر، یکی از نویسندگان مقاله از دانشگاه واترلو، گفت که محققان باید دستورالعمل هایی برای مدیریت LLM در تحقیقات ایجاد کنند.
پارکر گفت: نگرانی های عملی در مورد کیفیت داده ها، برابری و عادلانه بودن دسترسی به سیستم های قدرتمند هوش مصنوعی قابل توجه خواهد بود.
بنابراین ما باید اطمینان حاصل کنیم که LLMهای علوم اجتماعی، مانند همه مدلهای علمی، منبع باز هستند، به این معنی که الگوریتمهای آنها و در حالت ایدهآل دادهها برای بررسی، آزمایش و اصلاح برای همه در دسترس است.
پارکر گفت: «تنها با حفظ شفافیت و تکرارپذیری میتوانیم اطمینان حاصل کنیم که تحقیقات علوم اجتماعی با کمک هوش مصنوعی واقعاً به درک ما از تجربه انسانی کمک میکند.»