مایکروسافت ادعا می کند که روش جدیدی برای حفظ اخلاقی ChatGPT دارد
مایکروسافت وقتی تیم اخلاق و جامعه هوش مصنوعی خود را در مارس 2023 تعطیل کرد، مشکلات زیادی را به خود دید. تلاش های آتی آن در آینده پاسخگو و کنترل شده است.
در پستی در وبلاگ مایکروسافت On the Issues، ناتاشا کرامپتون – مدیر ارشد هوش مصنوعی این شرکت مستقر در ردموند – توضیح داد که تیم اخلاقی منحل شده است زیرا “یک تیم یا رشته ای که مسئول هوش مصنوعی مسئولیت پذیر یا اخلاقی باشد به اهداف ما دست نخواهد یافت.”
در عوض، مایکروسافت با تیمهای حریم خصوصی، امنیت و دسترسی خود رویکردی را اتخاذ کرد و هوش مصنوعی مسئول را در سراسر شرکت تعبیه کرد. در عمل، این بدان معناست که مایکروسافت دارای کارکنان ارشد است که “وظیفه رهبری هوش مصنوعی مسئول در هر گروه تجاری اصلی” و همچنین “شبکه بزرگی از “قهرمانان” هوش مصنوعی مسئول” با مجموعه مهارتها و نقشها برای تعامل منظم و مستقیمتر.
علاوه بر این، کرامپتون گفت که مایکروسافت «نزدیک به 350 نفر دارد که روی هوش مصنوعی مسئول کار می کنند، که فقط بیش از یک سوم آنها (دقیقاً 129) به طور تمام وقت اختصاص داده شده اند. بقیه وظایف هوش مصنوعی را به عنوان بخش اصلی کار خود دارند.»
پس از اینکه مایکروسافت تیم اخلاق و جامعه خود را تعطیل کرد، کرامپتون خاطرنشان کرد که برخی از اعضای تیم متعاقباً در تیمهای سراسر شرکت ادغام شدند. با این حال، هفت نفر از اعضای این گروه به عنوان بخشی از کاهش مشاغل گسترده مایکروسافت، که منجر به اخراج 10000 کارگر تا اوایل سال 2023 شد، اخراج شدند.
پیمایش در رسوایی ها
هوش مصنوعی در ماههای اخیر تقریباً عاری از رسوایی نبوده است، و این نگرانیها هستند که به واکنشها علیه انحلال تیم اخلاقی هوش مصنوعی مایکروسافت دامن زدهاند. اگر مایکروسافت فاقد یک تیم اختصاصی برای کمک به هدایت محصولات هوش مصنوعی خود در مسیرهای مسئولانه بود، برای مهار انواع سوء استفاده و رفتار مشکوک که ربات چت بینگ آن به آن مشهور شده است، مبارزه می کرد.
آخرین پست وبلاگ این شرکت مطمئناً با هدف کاهش این نگرانی ها در بین مردم است. بهنظر میرسد مایکروسافت بهجای کنار گذاشتن کامل تلاشهای هوش مصنوعی خود، به دنبال اطمینان از این است که تیمهای سراسر شرکت با کارشناسان مسئول هوش مصنوعی تماس منظم داشته باشند.
با این حال، شکی وجود ندارد که تعطیلی تیم اخلاق و جامعه هوش مصنوعی به خوبی انجام نشده است، و به احتمال زیاد مایکروسافت هنوز کارهایی برای انجام دادن دارد تا آگاهی جمعی عمومی را در این زمینه کاهش دهد. در واقع، حتی خود مایکروسافت معتقد است که ChatGPT – که توسعهدهنده آن، OpenAI، متعلق به مایکروسافت است – باید تنظیم شود.
همین دیروز، جفری هینتون – پدرخوانده هوش مصنوعی – گوگل را ترک کرد و به نیویورک تایمز گفت که نگرانی های جدی در مورد سرعت و جهت گسترش هوش مصنوعی دارد، در حالی که گروهی از کارشناسان برجسته فناوری اخیرا نامه ای سرگشاده را امضا کردند که خواستار توقف آن شدند. در توسعه هوش مصنوعی، به طوری که بتوان خطرات آن را بهتر درک کرد.
ممکن است مایکروسافت نگرانیهای مربوط به توسعه اخلاقی هوش مصنوعی را نادیده بگیرد، اما اینکه آیا رویکرد جدید آن رویکرد درستی است یا خیر، باید دید. پس از شروع بحث برانگیز بینگ چت، ناتاشا کرامپتون و همکارانش امیدوارند اوضاع به سمت بهتر شدن تغییر کند.
توصیه های سردبیران