تکنولوژی

اهمیت طرح مایکروسافت برای مدیریت عمومی هوش مصنوعی

بسیاری از رهبران فناوری موافقند که در حالی که هوش مصنوعی می تواند برای انسان بسیار مفید باشد، می تواند مورد سوء استفاده قرار گیرد یا در نهایت از طریق سهل انگاری به بشریت آسیب برساند. اما انتظار از دولت‌ها برای مقابله با این مشکل بدون راهنمایی، احمقانه است، زیرا سیاست‌گذاران اغلب حتی فناوری را که سال‌ها استفاده کرده‌اند، درک نمی‌کنند، چه رسد به چیزی که به تازگی وارد بازار شده است.

در نتیجه، زمانی که دولت ها برای کاهش یک مشکل اقدام می کنند، می توانند آسیب بیشتری نسبت به سود داشته باشند. به عنوان مثال، تحریم شرکت قدیمی نفت شل به دلیل سوء استفاده درست بود، اما تجزیه این شرکت کنترل نفت را از ایالات متحده به بخش هایی از جهان منتقل کرد که چندان دوست ایالات متحده نیستند. مثال دیگر اصلاح تسلط RCA بر لوازم الکترونیکی مصرفی بود که بازار را از ایالات متحده به ژاپن منتقل کرد.

ایالات متحده در حال چسبیدن به رهبری فناوری است، اما شکی در ذهن من وجود ندارد که اگر دولت بدون راهنمایی برای تنظیم هوش مصنوعی اقدام کند، آنها به سادگی این فرصت را به چین منتقل خواهند کرد. به همین دلیل است که گزارش اخیر مایکروسافت با عنوان «هوش مصنوعی حاکم: طرحی برای آینده» بسیار مهم است.

گزارش مایکروسافت مشکل را تعریف می‌کند، مسیر معقولی را ترسیم می‌کند که رقابت‌پذیری ایالات متحده را کاهش نمی‌دهد، و نگرانی‌های مربوط به هوش مصنوعی را برطرف می‌کند.

بیایید در مورد برنامه مایکروسافت برای مدیریت هوش مصنوعی صحبت کنیم، و با محصول هفته من، خط جدیدی از ردیاب‌ها را به پایان می‌رسانیم که می‌تواند به شما کمک کند چیزهایی را که اغلب در یافتن آنها مشکل داریم، پیگیری کنید.

مثال EEOC

احمقانه است که خواستار مقررات بدون زمینه باشیم. وقتی دولت‌ها نسبت به چیزی که اطلاعات کمی در مورد آن دارند واکنش تاکتیکی نشان می‌دهند، می‌تواند بیشتر از اینکه فایده داشته باشد ضرر داشته باشد. من با چند مثال ضد انحصار شروع کردم، اما شاید زشت ترین نمونه آن کمیسیون فرصت های شغلی برابر (EEOC) بود.

کنگره در سال 1964 EEOC را ایجاد کرد تا به سرعت به مشکل بسیار واقعی تبعیض نژادی در محل کار رسیدگی کند. دو دلیل اصلی برای تبعیض در محیط کار وجود داشت. بارزترین آن تبعیض نژادی در محل کار بود که EEOC می توانست به آن رسیدگی کند و انجام داد. اما در مورد تبعیض در آموزش مشکل بزرگتری وجود دارد که EEOC به آن توجه نمی کند.

هنگامی که شرکت‌ها بر اساس صلاحیت‌ها استخدام می‌شوند و از هر یک از روش‌های توسعه‌یافته توسط صنعت در آن زمان برای پاداش دادن به کارکنان با موقعیت‌های مبتنی بر علم، ترفیع‌ها و افزایش‌های شغلی بر اساس تحصیلات و پیشرفت‌ها استفاده می‌کنند، از شما خواسته می‌شود که به این برنامه‌ها پایان دهید، تا وضعیت را بهبود بخشید. تنوع شرکت شما، که اغلب اقلیت های بی تجربه را استخدام می کند.

با قرار دادن اقلیت‌های بی‌تجربه در مشاغلی که برای آن‌ها به خوبی آموزش ندیده‌اند، سیستم آنها را در شرایطی قرار داده است که شکست بخورند، که تنها این باور را تقویت می‌کند که اقلیت‌ها به نحوی ناکافی هستند، در حالی که در واقع فرصت‌های برابر برای شروع آموزش و راهنمایی به آنها داده نمی‌شود. این وضعیت نه تنها در مورد رنگین پوستان، بلکه در مورد زنان، صرف نظر از رنگ، صادق بود.

مطلب پیشنهادی:  روز پرایم: سامسونگ گلکسی M34 5G به عنوان تلفن هوشمند شماره 1 فروش ظاهر شد

اکنون می‌توانیم به گذشته نگاه کنیم و ببینیم که EEOC واقعاً چیزی را اصلاح نکرده است، اما منابع انسانی را از سازمانی متمرکز بر مراقبت و تغذیه کارکنان به سازمانی متمرکز بر رعایت قوانین تبدیل کرده است، که اغلب به معنای پوشاندن مشکلات کارکنان به جای رسیدگی به مشکلات است.

برد اسمیت در حال افزایش است

برد اسمیت، رئیس مایکروسافت، من را یکی از معدود رهبران فناوری می داند که بزرگتر فکر می کنند. او به جای تمرکز تقریباً انحصاری بر پاسخ‌های تاکتیکی به مشکلات استراتژیک، استراتژیک فکر می‌کند.

طرح مایکروسافت نمونه ای از این موضوع است، زیرا در حالی که اکثر آنها به دولت می گویند “شما باید کاری انجام دهید” که می تواند منجر به مشکلات بلندمدت دیگری شود، اسمیت بیان کرده است که به نظر او راه حل باید چگونه باشد و شکل می گیرد. به زیبایی در یک طرح پنج نقطه ای.

او با جمله‌ای تحریک‌آمیز شروع می‌کند: «نپرس که کامپیوترها چه کاری می‌توانند انجام دهند، بپرس که چه کاری باید انجام دهند» که من را به یاد جمله معروف جان اف کندی می‌اندازد، «نپرس که کشورت چه کاری می‌تواند برایت انجام دهد، بپرس که چه کاری می‌توانی انجام بدهی. برای کشور خود انجام دهید بیانیه اسمیت برگرفته از کتابی است که او در سال 2019 با هم نویسندگی کرد و به عنوان یکی از موضوعات تعیین کننده این نسل ذکر شده است.


این بیانیه اهمیت و نیاز به محافظت از مردم را در متن قرار می دهد و ما را وادار می کند در مورد پیامدهای فناوری های جدید فکر کنیم تا اطمینان حاصل کنیم که استفاده هایی که از آنها داریم مفید هستند و مضر نیستند.

اسمیت در ادامه صحبت می کند که چگونه باید از فناوری برای بهبود شرایط انسانی به عنوان یک اولویت استفاده کنیم، نه فقط برای کاهش هزینه ها و افزایش درآمد. مانند IBM که تلاش های مشابهی انجام داده است، اسمیت و مایکروسافت معتقدند که باید از فناوری برای بهبود افراد استفاده کرد، نه جایگزین کردن آنها.

او همچنین، که این روزها بسیار نادر است، در مورد نیاز به پیش‌بینی اینکه فناوری در آینده باید در کجا قرار گیرد صحبت می‌کند تا بتوانیم به جای واکنش مداوم و تاکتیکی ساده به آنها، مشکلات را پیش‌بینی کنیم. نیاز به شفافیت، پاسخگویی و اطمینان از استفاده قانونی از فناوری برای این تلاش بسیار مهم است و به خوبی مستند شده است.

تحلیل 5 نقطه ای یک طرح

اولین نکته اسمیت پیاده سازی و ایجاد چارچوب های ایمنی هوش مصنوعی تحت رهبری دولت است. اغلب دولت ها متوجه نمی شوند که برخی از ابزارهای مورد نیاز برای مقابله با یک مشکل را در اختیار دارند و زمان زیادی را برای اختراع مجدد چرخ تلف می کنند.

کار قابل توجهی توسط موسسه ملی استانداردها و فناوری ایالات متحده (NIST) در قالب چارچوب مدیریت ریسک هوش مصنوعی (AI RMF) انجام شده است. این یک چارچوب خوب است، اگر ناقص باشد. اولین نکته اسمیت این است که از آن استفاده کرده و بر آن بنا شود.

نکته دوم اسمیت نیاز به ترمزهای ایمنی موثر برای سیستم های هوش مصنوعی است که زیرساخت های حیاتی را کنترل می کنند. اگر زیرساخت های حیاتی کنترل کننده هوش مصنوعی از ریل خارج شود، می تواند باعث خسارات عظیم یا حتی مرگ در مقیاس قابل توجهی شود.

ما باید اطمینان حاصل کنیم که این سیستم‌ها آزمایش‌های گسترده‌ای را پشت سر می‌گذارند، نظارت انسانی گسترده‌ای دارند و در برابر سناریوهایی که نه تنها مشکلات احتمالی، بلکه بعید وجود دارد، آزمایش می‌شوند تا مطمئن شویم هوش مصنوعی وارد عمل نمی‌شود و وضعیت را بدتر نمی‌کند.

مطلب پیشنهادی:  OpenAI کمک های 100000 دلاری را برای ایده های حکمرانی هوش مصنوعی ارائه می دهد


دولت کلاس‌هایی از سیستم‌هایی را که به نرده‌های محافظ نیاز دارند، تعریف می‌کند، راهنمایی‌هایی در مورد ماهیت این محافظ‌ها ارائه می‌کند و سیستم‌های متصل را ملزم می‌کند که الزامات امنیتی خاصی را برآورده کنند – مانند قرار گرفتن فقط در مراکز داده آزمایش‌شده و دارای مجوز برای چنین استفاده‌ای.

نکته سوم اسمیت توسعه یک چارچوب قانونی و نظارتی گسترده بر اساس معماری فناوری برای هوش مصنوعی است. هوش مصنوعی اشتباه خواهد کرد. مردم ممکن است تصمیمات اتخاذ شده توسط هوش مصنوعی را دوست نداشته باشند، حتی اگر درست باشند، و مردم ممکن است هوش مصنوعی را به خاطر چیزهایی که هوش مصنوعی کنترلی بر آنها ندارد، سرزنش کنند.

به طور خلاصه، دعواهای قضایی زیادی وجود خواهد داشت. بدون یک چارچوب قانونی که مسئولیت را پوشش می دهد، تصمیمات به احتمال زیاد متفاوت و متضاد هستند، و دستیابی به هر راه حلی را دشوار و بسیار پرهزینه می کند.

بنابراین نیاز به یک چارچوب قانونی به طوری که مردم مسئولیت ها، خطرات و حقوق خود را درک کنند تا از مشکلات آینده اجتناب کنند و در صورت بروز مشکل، سریعتر راه حل معتبری پیدا کنند. این به تنهایی می تواند آنچه را که احتمالاً به یک پرونده قضایی بزرگ تبدیل می شود کاهش دهد، زیرا هوش مصنوعی در حال حاضر در مورد سابقه قانونی تقریباً در چراغ سبز قرار دارد.

نکته چهارم اسمیت ترویج شفافیت و تضمین دسترسی دانشگاهی و غیرانتفاعی به هوش مصنوعی است. این فقط منطقی است؛ چگونه می توانید به چیزی که کاملاً درک نمی کنید اعتماد کنید؟ مردم امروز به هوش مصنوعی اعتماد ندارند و بدون شفافیت، فردا به آن اعتماد نخواهند کرد. در واقع، می‌توانم بگویم که بدون شفافیت، نباید به هوش مصنوعی اعتماد کنید، زیرا نمی‌توانید تأیید کنید که آن چیزی که قصد دارید انجام می‌دهد.

ما همچنین به دسترسی آکادمیک به هوش مصنوعی نیاز داریم تا اطمینان حاصل کنیم که مردم با ورود به نیروی کار، نحوه استفاده صحیح از این فناوری را درک می‌کنند و دسترسی غیرانتفاعی برای اطمینان از اینکه سازمان‌های غیرانتفاعی، به‌ویژه آن‌هایی که بر بهبود شرایط انسانی تمرکز دارند، دسترسی مؤثری به این فناوری برای منافع خود دارند. آثار.


نکته پنجم اسمیت این است که به دنبال مشارکت های دولتی و خصوصی جدید برای استفاده از هوش مصنوعی به عنوان ابزاری موثر برای مقابله با چالش های اجتماعی اجتناب ناپذیری است که به وجود خواهد آمد. هوش مصنوعی تأثیر زیادی بر جامعه خواهد داشت و اطمینان از مفید بودن آن تأثیر به جای مضر، نیاز به تمرکز و نظارت دارد.

او اشاره می کند که هوش مصنوعی می تواند یک شمشیر باشد، اما همچنین می تواند به طور موثر به عنوان یک سپر استفاده شود، به طور بالقوه قوی تر از هر شمشیر موجود در این سیاره. باید برای حمایت از دموکراسی و حقوق اساسی مردم در همه جا استفاده شود.

اسمیت از اوکراین به عنوان مثالی یاد کرد که در آن بخش های دولتی و خصوصی به طور مؤثری برای ایجاد یک دفاع قدرتمند گرد هم آمده اند. او مانند من معتقد است که ما باید از اوکراین پیروی کنیم تا اطمینان حاصل کنیم که هوش مصنوعی به پتانسیل خود برای کمک به جهان برای حرکت به سوی فردایی بهتر می رسد.

مطلب پیشنهادی:  آیا ایلان ماسک در کاهش سرعت توییتر مقصر است؟

نتیجه: فردایی بهتر

مایکروسافت فقط به دولت نمی‌رود و از آن می‌خواهد تا در مورد مشکلی که دولت‌ها هنوز کاملاً آن را درک نکرده‌اند، اقدام کند.

چارچوبی را برای اینکه آن راه حل باید و رک و پوست کنده باید چگونه باشد را ارائه می کند تا اطمینان حاصل شود که خطرات مربوط به استفاده از هوش مصنوعی را از قبل کاهش می دهیم و هنگامی که مشکلاتی وجود دارد ابزارها و ابزارهای از قبل موجود برای رفع آنها وجود داشته باشد. یک سوئیچ کشتن اضطراری که اجازه می دهد تا برنامه هوش مصنوعی را که از ریل خارج شده است خاتمه دهید.

چه یک شرکت باشید و چه یک فرد، مایکروسافت در اینجا یک درس عالی در مورد چگونگی به دست آوردن رهبری برای رسیدگی به یک مشکل ارائه می دهد نه اینکه فقط آن را به طرف دولت بیاندازد و از آن بخواهید آن را برطرف کند. مایکروسافت مشکل را تشریح کرد و راه‌حل اندیشیده‌شده‌ای ارائه کرد تا رفع مشکل به مشکلی بزرگ‌تر از مشکل اولیه تبدیل نشود.

آفرین!

محصول فناوری هفته

Pebblebee Trackers

مانند بسیاری از مردم، من و همسرم تمایل داریم چیزها را به اشتباه بیاندازیم، که به نظر می رسد اغلب زمانی اتفاق می افتد که با عجله از خانه بیرون می رویم و چیزی را ترک می کنیم بدون اینکه فکر کنیم آن را کجا گذاشته ایم.

ما همچنین سه گربه داریم که به این معنی است که دامپزشک به طور مرتب به ما سر می‌زند تا از آنها مراقبت کند. بسیاری از گربه‌های ما مکان‌های منحصربه‌فرد و خلاقانه‌ای برای مخفی شدن پیدا کرده‌اند تا از کوتاه شدن ناخن‌ها یا بریدن بستر جلوگیری کنند. بنابراین ما از ردیاب هایی مانند Tile و AirTags استفاده می کنیم.

اما مشکل AirTags این است که آنها فقط در صورتی کار می کنند که شما یک آیفون داشته باشید، مانند همسر من، به این معنی که او می تواند چیزها را ردیابی کند، اما من نمی توانم چون یک گوشی اندرویدی دارم. با کاشی، یا باید دستگاه را در صورت از بین رفتن باتری تعویض کنید یا باتری را تعویض کنید که دردناک است. بنابراین اغلب زمانی که ما نیاز به پیدا کردن چیزی داریم، باتری تمام می شود.

Pebblebee مانند این دستگاه‌های دیگر کار می‌کند، اما متمایز است زیرا قابل شارژ است و با برنامه Pebblebee که در iOS و Android کار می‌کند، کار می‌کند. یا با برنامه های بومی در این سیستم عامل ها کار می کند: Apple Find My و Google Find My Device. متأسفانه، هر دو را به طور همزمان انجام نمی دهد، اما حداقل شما یک انتخاب دارید.

ردیاب زنبور عسل

Pebblebee Trackers: گیره برای کلید، کیف و موارد دیگر. برچسب برای چمدان، ژاکت و غیره؛ و کارت برای کیف پول و سایر فضاهای تنگ. (اعتبار تصویر: Pebblebee)


وقتی می‌خواهید مکان یک دستگاه ردیاب را پیدا کنید، بوق می‌زند و روشن می‌شود، و پیدا کردن چیزها در شب راحت‌تر و کمتر شبیه بازی بد مارکوپولو (کاش آشکارسازهای دود این کار را می‌کردند) می‌کند.

از آنجایی که Pebblebee با اپل و اندروید کار می‌کند، و می‌توانید باتری‌ها را شارژ کنید، بهتر از کاشی یا AirTag اپل یک نیاز شخصی را برآورده می‌کند – و محصول هفته من است.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا