تکنولوژی

پروفسور وارتون استدلال می کند که هوش مصنوعی را از سایه ها آزاد کنید

یک استاد دانشکده بازرگانی وارتون یکشنبه در یک پست وبلاگی استدلال کرد که کارگران از ابزارهای هوش مصنوعی برای افزایش بهره وری فردی استفاده می کنند اما فعالیت خود را پایین نگه می دارند، که می تواند به عملکرد کلی سازمان آنها آسیب برساند.

Ethan Mollick در وبلاگ One Useful Thing خود می نویسد: «امروزه میلیاردها نفر به مدل های زبان بزرگ (LLM) و مزایای بهره وری که به همراه دارند، دسترسی دارند. و از دهه‌ها تحقیق نوآوری که همه را از لوله کش گرفته تا کتابدار و جراح مورد مطالعه قرار داده است، می‌دانیم که وقتی به ابزارهای همه منظوره دسترسی پیدا می‌کنند، مردم راه‌هایی برای استفاده از آن‌ها برای آسان‌تر کردن و بهتر کردن کارشان پیدا می‌کنند.

او ادامه داد: «نتایج اغلب اختراعات انقلابی هستند، روش‌هایی برای استفاده از هوش مصنوعی که می‌تواند کسب‌وکارها را کاملا متحول کند. “مردم وظایف را ساده می کنند، رویکردهای جدیدی برای کدنویسی اتخاذ می کنند و بخش های وقت گیر و خسته کننده کار خود را خودکار می کنند. اما مخترعان به شرکت های خود در مورد اکتشافات خود نمی گویند. آنها سایبورگ‌های مخفی، انسان‌های تقویت‌شده ماشینی هستند که خود را مخفی نگه می‌دارند.

مولیک استدلال می‌کند که روش‌های سنتی واکنش سازمان‌ها به فناوری‌های جدید برای هوش مصنوعی به‌خوبی کار نمی‌کند و تنها راهی که یک سازمان می‌تواند از هوش مصنوعی بهره‌مند شود، کمک گرفتن از «سایبورگ‌ها» است و در عین حال کارکنان بیشتری را به استفاده از هوش مصنوعی تشویق می‌کند.

مولک استدلال می کند که این نیاز به یک تغییر عمده در نحوه عملکرد سازمان ها دارد. این تغییرات شامل وارد کردن هر چه بیشتر سازمان در دستور کار هوش مصنوعی، کاهش ترس در مورد استفاده از هوش مصنوعی، و ایجاد انگیزه برای کاربران هوش مصنوعی است تا دیگران را به استفاده از هوش مصنوعی تشویق کنند.

مولک افزود، شرکت ها همچنین باید در مورد برخی از مسائل کلیدی به سرعت عمل کنند. با دستاوردهای بهره وری که می توانید به دست آورید چه می کنید؟ چگونه می توانید کار را سازماندهی مجدد کنید و فرآیندهایی را که توسط هوش مصنوعی توخالی یا بی فایده شده اند را از بین ببرید؟ چگونه کارهایی را که ممکن است شامل خطر توهمات ناشی از هوش مصنوعی و نگرانی های احتمالی IP باشد را مدیریت و کنترل می کنید؟

وقفه کسب و کار

همانطور که هوش مصنوعی از سایه ها سودمند است، می تواند برای یک سازمان بسیار مخرب باشد.

مطلب پیشنهادی:  طرفدار تلسکوپ جیمز وب؟ تلسکوپ قدیمی هابل نشان می دهد که چه کاری می تواند انجام دهد. این عکس از سحابی حلقه را ببینید

هوش مصنوعی می تواند 30 تا 80 درصد تاثیر مثبتی بر بهره وری داشته باشد. راب اندرل، رئیس و تحلیلگر اصلی در گروه Enderle، یک شرکت خدمات مشاوره ای در Bend، اورگان، خاطرنشان کرد: “به طور ناگهانی، یک کارمند حاشیه ای با هوش مصنوعی مولد تبدیل به یک فوق ستاره می شود.”

او به دیجیتال تو گفت: «اگر هوش مصنوعی مولد شناسایی نشود، می‌تواند سؤالاتی را در مورد اینکه آیا یک کارمند تقلب می‌کند یا اینکه زودتر رها شده است، ایجاد کند.

اندرل افزود: «محرمانه بودن آنقدر مخرب نیست، بلکه برای مدیر و کارمند بالقوه مشکل ساز است، به خصوص اگر شرکت هنوز سیاستی برای استفاده و افشای هوش مصنوعی تعریف نکرده باشد.

شان سوربر، مدیر ارشد مدیریت حساب فنی در Tanium، ارائه‌دهنده مدیریت نقطه پایانی همگرا، در کرکلند، واشنگتن، گفت: استفاده از هوش مصنوعی می‌تواند دید غیر واقعی از دانش یا توانایی یک کارمند ایجاد کند، که می‌تواند منجر به انتظارات خطرناک در آینده شود.


او نمونه‌ای از کارمندی را ذکر می‌کند که از هوش مصنوعی برای نوشتن گزارشی گسترده در مورد موضوعی استفاده می‌کرد که هیچ دانش عمیقی درباره آن نداشت. او به دیجیتال تو گفت: “این سازمان ممکن است آنها را به عنوان یک متخصص درک کند، اما در واقع آنها فقط از هوش مصنوعی برای نوشتن گزارش استفاده کردند.”

سوربر افزود: اگر کارمندی از هوش مصنوعی برای ایجاد کد یا پردازش اسنادی که مستقیماً به سیستم‌های سازمان تغذیه می‌شود، استفاده کند، ممکن است مشکلاتی ایجاد شود. او توضیح داد: «هوش مصنوعی با مدل‌های زبانی بزرگ در تولید حجم عظیمی از اطلاعات عالی است، اما اگر به دقت بررسی نشود، می‌تواند مشکلات سیستمی یا حتی حقوقی را برای سازمان ایجاد کند.

مطلب پیشنهادی:  ناسا می گوید، سیارک 301 فوتی 2023 FY13 به سمت زمین پرتاب می شود. سرعت گرفتن با سرعت وحشتناک 42923 کیلومتر در ساعت

استفاده بیهوده از هوش مصنوعی

جان بامبنک، شکارچی اصلی تهدید در Netenrich، یک شرکت فناوری اطلاعات و امنیت دیجیتال در سن خوزه، کالیفرنیا، گفت: هوش مصنوعی، زمانی که به خوبی مورد استفاده قرار گیرد، بهره‌وری کارگران را افزایش می‌دهد که ذاتاً مخل نیست.

او به دیجیتال تو گفت: «این استفاده بی‌درد از هوش مصنوعی است که می‌تواند برای کارگران که به سادگی نتایج این ابزارها را بررسی نمی‌کنند و پاسخ‌های بی‌معنا را فیلتر نمی‌کنند، مختل شود.

کریگ جونز، معاون عملیات امنیتی در Ontinue، یک ارائه‌دهنده تشخیص و پاسخ مدیریت شده در شهر Redwood، کالیفرنیا، اضافه کرد که درک منطق پشت نتایج تولید شده توسط هوش مصنوعی اغلب به دانش تخصصی نیاز دارد.

او به دیجیتال تو گفت: “اگر تصمیمات کورکورانه توسط این نتایج هدایت شوند، می تواند منجر به استراتژی های ناقص، سوگیری ها یا ابتکارات ناکارآمد شود.”

جونز استدلال می کند که استفاده مخفیانه از هوش مصنوعی می تواند محیطی از ناسازگاری و غیرقابل پیش بینی را در سازمان ایجاد کند. او گفت: برای مثال. “اگر یک فرد یا تیم از هوش مصنوعی برای ساده کردن وظایف یا تقویت تجزیه و تحلیل داده ها استفاده کند، عملکرد آنها می تواند به طور قابل توجهی بر کسانی که از منابع مشابه استفاده نمی کنند تحت الشعاع قرار دهد و نتایج عملکرد ناهمواری ایجاد کند.”

علاوه بر این، او ادامه داد، استفاده از هوش مصنوعی بدون آگاهی مدیریتی می تواند مشکلات اخلاقی و قانونی جدی را به خصوص در بخش هایی مانند منابع انسانی یا مالی ایجاد کند. برنامه های غیرقانونی هوش مصنوعی ممکن است به طور ناخواسته تعصب را تداوم بخشند یا الزامات نظارتی را نقض کنند.

ممنوعیت هوش مصنوعی راه حلی نیست

به همان اندازه که هوش مصنوعی مخرب است، ممنوع کردن استفاده از آن توسط کارگران احتمالا بهترین اقدام نیست. اندرل تکرار کرد: از آنجایی که هوش مصنوعی بین 30 تا 80 درصد افزایش بهره وری را فراهم می کند، ممنوعیت این ابزار به طور موثر باعث می شود که شرکت نتواند با رقبایی که از فناوری به درستی استقبال می کنند و از آن استفاده می کنند، رقابت کند.

مطلب پیشنهادی:  پاسخ به Wordle 443 برای 5 سپتامبر: به کمک نیاز دارید؟ این نکات و نکات بی دردسر Wordle را در اینجا بررسی کنید

وی افزود: این یک ابزار قدرتمند است. “به خطر شما آن را نادیده بگیرید.”


جک ای گلد، بنیانگذار و تحلیلگر اصلی در J. Gold Associates، یک شرکت مشاوره فناوری اطلاعات، در نورثبورو خاطرنشان کرد: ممنوعیت مطلق ممکن است راه حلی نباشد، اما تعیین دستورالعمل هایی برای آنچه که می توان و نمی توان با هوش مصنوعی عمومی انجام داد مناسب است. ، ماساچوست

او به دیجیتال تو گفت: «ما از کاربران تجاری نظرسنجی کردیم که پرسیدیم آیا شرکت‌هایشان سیاستی در مورد استفاده از هوش مصنوعی عمومی دارند یا خیر، و ۷۵ درصد از شرکت‌ها پاسخ منفی دادند.

او گفت: «بنابراین اگر نگران لو رفتن اطلاعات خود هستید، اولین کاری که می‌خواهید انجام دهید، تعیین یک سیاست است. اگر سیاستی وجود نداشته باشد، نمی‌توانید سر مردم به خاطر رعایت نکردن آن فریاد بزنید.»

نشت داده ها می تواند یک خطر امنیتی مهم در هنگام استفاده از برنامه های کاربردی هوش مصنوعی باشد. اریش کرون، حامی آگاهی امنیتی در KnowBe4، ارائه‌دهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، توضیح داد: «بسیاری از خطرات امنیتی ناشی از هوش مصنوعی ناشی از اطلاعاتی است که افراد در آن قرار می‌دهند.

او به دیجیتال تو گفت: درک این نکته مهم است که اطلاعات اساسا برای این اشخاص ثالث آپلود شده و از طریق هوش مصنوعی پردازش می شوند. اگر مردم به اطلاعات حساس، PII یا مالکیت معنوی که در اختیار هوش مصنوعی قرار می دهند فکر نکنند، این می تواند یک مشکل جدی باشد.

Molik در وبلاگ خود اشاره کرد که هوش مصنوعی اینجاست و در حال حاضر بر بسیاری از صنایع و زمینه ها تأثیر گذاشته است. او نوشت: «بنابراین، برای ملاقات با سایبورگ‌های خود آماده شوید و با آنها کار کنید تا سازمانی جدید و بهتر برای عصر مبتنی بر هوش مصنوعی ایجاد کنید.»

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا