کامپیوتر

مایکروسافت ادعا می کند که روش جدیدی برای حفظ اخلاقی ChatGPT دارد

مایکروسافت وقتی تیم اخلاق و جامعه هوش مصنوعی خود را در مارس 2023 تعطیل کرد، مشکلات زیادی را به خود دید. تلاش های آتی آن در آینده پاسخگو و کنترل شده است.

در پستی در وبلاگ مایکروسافت On the Issues، ناتاشا کرامپتون – مدیر ارشد هوش مصنوعی این شرکت مستقر در ردموند – توضیح داد که تیم اخلاقی منحل شده است زیرا “یک تیم یا رشته ای که مسئول هوش مصنوعی مسئولیت پذیر یا اخلاقی باشد به اهداف ما دست نخواهد یافت.”

چت بینگ در لپ تاپ نمایش داده می شود.
جیکوب روچ / روندهای دیجیتال

در عوض، مایکروسافت با تیم‌های حریم خصوصی، امنیت و دسترسی خود رویکردی را اتخاذ کرد و هوش مصنوعی مسئول را در سراسر شرکت تعبیه کرد. در عمل، این بدان معناست که مایکروسافت دارای کارکنان ارشد است که “وظیفه رهبری هوش مصنوعی مسئول در هر گروه تجاری اصلی” و همچنین “شبکه بزرگی از “قهرمانان” هوش مصنوعی مسئول” با مجموعه مهارت‌ها و نقش‌ها برای تعامل منظم و مستقیم‌تر.

علاوه بر این، کرامپتون گفت که مایکروسافت «نزدیک به 350 نفر دارد که روی هوش مصنوعی مسئول کار می کنند، که فقط بیش از یک سوم آنها (دقیقاً 129) به طور تمام وقت اختصاص داده شده اند. بقیه وظایف هوش مصنوعی را به عنوان بخش اصلی کار خود دارند.»

پس از اینکه مایکروسافت تیم اخلاق و جامعه خود را تعطیل کرد، کرامپتون خاطرنشان کرد که برخی از اعضای تیم متعاقباً در تیم‌های سراسر شرکت ادغام شدند. با این حال، هفت نفر از اعضای این گروه به عنوان بخشی از کاهش مشاغل گسترده مایکروسافت، که منجر به اخراج 10000 کارگر تا اوایل سال 2023 شد، اخراج شدند.

مطلب پیشنهادی:  هکرها روش جدیدی برای اجبار به پرداخت باج افزار دارند

پیمایش در رسوایی ها

بینگ چت می گوید که می خواهد انسان باشد.
جیکوب روچ / روندهای دیجیتال

هوش مصنوعی در ماه‌های اخیر تقریباً عاری از رسوایی نبوده است، و این نگرانی‌ها هستند که به واکنش‌ها علیه انحلال تیم اخلاقی هوش مصنوعی مایکروسافت دامن زده‌اند. اگر مایکروسافت فاقد یک تیم اختصاصی برای کمک به هدایت محصولات هوش مصنوعی خود در مسیرهای مسئولانه بود، برای مهار انواع سوء استفاده و رفتار مشکوک که ربات چت بینگ آن به آن مشهور شده است، مبارزه می کرد.

آخرین پست وبلاگ این شرکت مطمئناً با هدف کاهش این نگرانی ها در بین مردم است. به‌نظر می‌رسد مایکروسافت به‌جای کنار گذاشتن کامل تلاش‌های هوش مصنوعی خود، به دنبال اطمینان از این است که تیم‌های سراسر شرکت با کارشناسان مسئول هوش مصنوعی تماس منظم داشته باشند.

با این حال، شکی وجود ندارد که تعطیلی تیم اخلاق و جامعه هوش مصنوعی به خوبی انجام نشده است، و به احتمال زیاد مایکروسافت هنوز کارهایی برای انجام دادن دارد تا آگاهی جمعی عمومی را در این زمینه کاهش دهد. در واقع، حتی خود مایکروسافت معتقد است که ChatGPT – که توسعه‌دهنده آن، OpenAI، متعلق به مایکروسافت است – باید تنظیم شود.

همین دیروز، جفری هینتون – پدرخوانده هوش مصنوعی – گوگل را ترک کرد و به نیویورک تایمز گفت که نگرانی های جدی در مورد سرعت و جهت گسترش هوش مصنوعی دارد، در حالی که گروهی از کارشناسان برجسته فناوری اخیرا نامه ای سرگشاده را امضا کردند که خواستار توقف آن شدند. در توسعه هوش مصنوعی، به طوری که بتوان خطرات آن را بهتر درک کرد.

ممکن است مایکروسافت نگرانی‌های مربوط به توسعه اخلاقی هوش مصنوعی را نادیده بگیرد، اما اینکه آیا رویکرد جدید آن رویکرد درستی است یا خیر، باید دید. پس از شروع بحث برانگیز بینگ چت، ناتاشا کرامپتون و همکارانش امیدوارند اوضاع به سمت بهتر شدن تغییر کند.

مطلب پیشنهادی:  نحوه گرفتن اسکرین شات در رایانه شخصی یا لپ تاپ ویندوز

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا