چگونه Walmart، Delta و Starbucks از هوش مصنوعی برای بررسی پیام های کارکنان استفاده می کنند
کلاوس ودفلت | دیجیتال ویژن | گتی ایماژ
به مرجع جورج اورول استناد کنید.
بسته به جایی که کار می کنید، احتمال زیادی وجود دارد که هوش مصنوعی پیام های شما را در Slack، Microsoft Teams تجزیه و تحلیل کند. پوسته پوسته شدن و سایر برنامه های کاربردی محبوب
کارفرمایان بزرگ آمریکایی دوست دارند والمارت، خطوط هوایی دلتا، تی موبایل، شورون و استارباکسو همچنین برندهای اروپایی از جمله نستله و AstraZenecaبه گفته این شرکت، برای نظارت بر مکالمات بین کارمندان خود به یک استارتاپ هفت ساله به نام Aware روی آورده اند.
جف شومان، یکی از بنیانگذاران و مدیرعامل استارت آپ مستقر در کلمبوس، اوهایو، می گوید که هوش مصنوعی به شرکت ها کمک می کند تا با خواندن احساسات کارکنان در زمان واقعی، به جای وابستگی به نظرسنجی سالانه یا دوسالانه، “ریسک را در ارتباطات خود درک کنند”.
به گفته شومان، با استفاده از دادههای ناشناس در محصول تحلیلی Aware، مشتریان میتوانند ببینند که چگونه کارمندان در یک گروه سنی خاص یا در یک جغرافیای خاص نسبت به سیاستهای جدید شرکتی یا کمپین بازاریابی واکنش نشان میدهند. او گفت که دهها مدل هوش مصنوعی Aware که برای خواندن متن و پردازش تصاویر ساخته شدهاند، همچنین میتوانند قلدری، آزار، تبعیض، عدم رعایت، پورنوگرافی، برهنگی و سایر رفتارها را شناسایی کنند.
به گفته شومان، ابزار تحلیلی Aware – ابزاری که احساسات و مسمومیت کارمندان را ردیابی می کند – توانایی علامت گذاری تک تک کارمندان را با نام ندارد. او افزود، اما ابزار کشف الکترونیکی مجزای آن، در صورت تهدیدهای شدید یا سایر رفتارهای مخاطره آمیز که توسط مشتری از پیش تعیین شده است، می تواند.
CNBC پاسخی از والمارت، تی موبایل، شورون، استارباکس یا نستله در مورد استفاده از Aware دریافت نکرد. یکی از نمایندگان AstraZeneca گفت که این شرکت از محصول eDiscovery استفاده می کند، اما از سنجش برای نظارت بر خلق و خو یا سمیت استفاده نمی کند. دلتا به CNBC گفت که از تجزیه و تحلیل Aware و eDiscovery برای نظارت بر روندها و احساسات به عنوان راهی برای جمع آوری بازخورد از کارمندان و سایر سهامداران و حفظ سوابق قانونی در پلت فرم رسانه های اجتماعی خود استفاده می کند.
نیازی به یک علاقهمند به رمان دیستوپیایی نیست تا ببیند کارها کجا میتوانند اشتباه پیش بروند.
یوتا ویلیامز، یکی از بنیانگذاران هوش مصنوعی غیرانتفاعی Humane Intelligence، گفت که هوش مصنوعی یک چین و چروک جدید و بالقوه مشکل ساز را به برنامه های به اصطلاح ریسک خودی اضافه می کند که سال ها برای ارزیابی مواردی مانند جاسوسی شرکت ها، به ویژه در ارتباطات ایمیل وجود داشته است.
ویلیامز به طور کلی در مورد هوش مصنوعی برای نظارت بر کارمندان به جای فناوری Aware به CNBC گفت: “بسیاری از آن تبدیل به جرم فکری می شود.”
هوش مصنوعی برای نظارت بر کارمندان بخش بهسرعت در حال گسترش، اما بخش مهمی از یک بازار هوش مصنوعی بزرگتر است که در سال گذشته، پس از راهاندازی چت ربات ChatGPT OpenAI در اواخر سال 2022، منفجر شد. فناوری تقریباً در هر صنعت، از خدمات مالی و تحقیقات زیست پزشکی گرفته تا تدارکات، سفرهای آنلاین و خدمات آب و برق، وظایف را خودکار می کند.
شومان به CNBC گفت: درآمد Aware طی پنج سال گذشته به طور متوسط سالانه 150 درصد افزایش یافته است و یک مشتری معمولی حدود 30000 کارمند دارد. رقبای برتر عبارتند از Qualtrics، Relativity، Proofpoint، Smarsh و Netskope.
طبق استانداردهای صنعت، Aware بسیار ضعیف است. این شرکت آخرین بار در سال 2021 پول جمع آوری کرد، زمانی که 60 میلیون دلار در یک دور به رهبری گلدمن ساکس مدیریت دارایی. در مقایسه با مدل زبان بزرگ یا LLM، شرکت هایی مانند OpenAI و Anthropic که هر کدام میلیاردها دلار، عمدتاً از شرکای استراتژیک، جمع آوری کرده اند.
“ردیابی سموم در زمان واقعی”
شومان این شرکت را در سال 2017 پس از گذراندن نزدیک به هشت سال در همکاری سازمانی در شرکت بیمه Nationwide راه اندازی کرد.
قبل از آن یک کارآفرین بود. و Aware اولین شرکتی نیست که او تأسیس کرده و افکار اورول را برانگیخته است.
در سال 2005، شومان شرکتی به نام BigBrotherLite.com را تأسیس کرد. طبق پروفایل لینکدین وی، این کسب و کار نرم افزاری را توسعه داده است که “تجربه مشاهده دیجیتالی و موبایلی” سریال واقعیت CBS “برادر بزرگ” را افزایش می دهد. در رمان کلاسیک اورول 1984، برادر بزرگ رهبر یک دولت توتالیتر است که در آن شهروندان دائما تحت نظارت هستند.
“من یک پخش کننده ساده ایجاد کردم که بر روی تجربه کاربری تمیزتر و آسان تر برای مردم برای تماشای برنامه تلویزیونی در رایانه خود متمرکز شده است.
در Aware، او کاری بسیار متفاوت انجام می دهد.
هر سال، این شرکت گزارشی را منتشر می کند که در آن اطلاعات میلیاردها – 6.5 میلیارد در سال 2023 – پیام های ارسال شده به شرکت های بزرگ، جدول بندی عوامل خطر درک شده و رتبه بندی احساسات در محل کار را منتشر می کند. شومان به تریلیونها پیامی که هر ساله از طریق پلتفرمهای ارتباطی محل کار ارسال میشود، به عنوان «سریعترین رشد مجموعه دادههای بدون ساختار در جهان» اشاره میکند.
هوش مصنوعی تجزیه و تحلیل Aware، هنگامی که انواع دیگری از محتوای به اشتراک گذاشته شده را شامل می شود، مانند تصاویر و ویدیوها، هر روز بیش از 100 میلیون قطعه محتوا را تجزیه و تحلیل می کند. به این ترتیب، این فناوری یک نمودار اجتماعی شرکت ایجاد میکند و به این موضوع نگاه میکند که تیمها در داخل بیشتر از دیگران با یکدیگر صحبت میکنند.
شومان درباره این ابزار تحلیلی گفت: «این همیشه احساسات کارکنان را در زمان واقعی ردیابی می کند و همیشه سمیت را در زمان واقعی ردیابی می کند. «اگر بانکی هستید که از Aware استفاده میکنید و روحیه نیروی کار در 20 دقیقه گذشته بالا رفته است، به این دلیل است که آنها به طور جمعی در مورد چیز مثبت صحبت میکنند. فناوری قادر خواهد بود هر چه که هست به آنها بگوید.”
Aware به CNBC تایید کرد که از داده های مشتریان سازمانی خود برای آموزش مدل های یادگیری ماشینی خود استفاده می کند. این شرکت گفت که انبار داده این شرکت حاوی حدود 6.5 میلیارد پیام است که نشان دهنده حدود 20 میلیارد تعامل فردی بین بیش از 3 میلیون کارمند منحصر به فرد است.
شومان گفت، وقتی یک مشتری جدید برای ابزار تجزیه و تحلیل ثبتنام میکند، مدلهای هوش مصنوعی Aware حدود دو هفته طول میکشد تا در مورد پیامهای کارکنان آموزش ببینند و الگوهای احساسات و عواطف درون شرکت را بیاموزند تا بتوانند ببینند چه چیزی طبیعی است در مقابل غیرعادی.
شومان گفت: «هیچ نامی از افراد برای محافظت از حریم خصوصی وجود نخواهد داشت. او گفت، بلکه مشتریان خواهند دید که «شاید بیش از 40 نیروی کار در این بخش از ایالات متحده شاهد تغییرات در [a] این سیاست به دلیل هزینه بسیار منفی است، اما همه افراد خارج از آن گروه سنی و مکان آن را مثبت می بینند، زیرا تأثیر متفاوتی بر آنها دارد.
اما ابزار کشف الکترونیکی Aware متفاوت عمل می کند. یک شرکت میتواند بسته به دستهبندی «خطر شدید» انتخابی شرکت، دسترسی مبتنی بر نقش را به نامهای کارکنان راهاندازی کند، که به فناوری Aware دستور میدهد تا در موارد خاص، نام یک فرد را برای منابع انسانی یا نماینده شرکت دیگر بازیابی کند.
شومان گفت: «برخی از موارد رایج خشونت شدید، قلدری شدید، آزار و اذیت است، اما این موارد در صنعت متفاوت است.
بهعنوان مثال، مشتری میتواند با استفاده از فناوری Aware خطمشی برای «تهدیدهای خشونتآمیز» یا هر دسته دیگری مشخص کند و مدلهای هوش مصنوعی را برای مشاهده تخلفات در Slack بخواهد. مایکروسافت تیم ها و محل کار از متا. مشتری همچنین میتواند این را با پرچمهای مبتنی بر قانون برای عبارات، عبارات و موارد دیگر مرتبط کند. اگر هوش مصنوعی چیزی را شناسایی کند که برخی از سیاستهای شرکت را نقض میکند، میتواند نام کارمند را در اختیار نماینده تعیینشده توسط مشتری قرار دهد.
این نوع تمرین سالهاست که در ارتباطات ایمیلی استفاده می شود. آنچه جدید است استفاده از هوش مصنوعی و کاربرد آن در پلتفرم های پیام رسانی محل کار مانند Slack و Teams است.
آمبا کاک، مدیر اجرایی مؤسسه هوش مصنوعی در دانشگاه نیویورک، نگران استفاده از هوش مصنوعی برای کمک به تعیین رفتار خطرناک است.
کاک گفت: «تأثیر وحشتناکی بر آنچه مردم در محل کار می گویند دارد. فن آوری. “اینها به همان اندازه که مسائل مربوط به حقوق کارگران است، مسائل مربوط به حریم خصوصی است.”
شومان گفت در حالی که ابزار eDiscovery Aware به تیمهای تحقیقاتی امنیتی یا منابع انسانی اجازه میدهد تا از هوش مصنوعی برای جستجو در مقادیر انبوه داده استفاده کنند، «امروزه یک قابلیت مشابه اما اساسی در Slack، Teams و سایر پلتفرمها وجود دارد.
شومان گفت: “یک تمایز کلیدی در اینجا این است که Aware و مدل های هوش مصنوعی آن تصمیم نمی گیرند.” هوش مصنوعی ما به سادگی بررسی این مجموعه داده های جدید را برای شناسایی خطرات احتمالی یا نقض سیاست ها آسان تر می کند.
نگرانی های حریم خصوصی
حتی اگر داده ها تجمیع یا ناشناس باشند، طبق تحقیقات، این یک مفهوم ناقص است. یک مطالعه بزرگ حریم خصوصی داده ها با استفاده از داده های سرشماری سال 1990 ایالات متحده نشان داد که 87٪ از آمریکایی ها را می توان تنها با استفاده از کد پستی، تاریخ تولد و جنسیت آنها شناسایی کرد. مشتریان باهوش با استفاده از ابزار تجزیه و تحلیل آن، این قدرت را دارند که متادیتا را به ردیابی پیام اضافه کنند، مانند سن، مکان، بخش، دوره تصدی یا عنوان شغلی کارمند.
کاک گفت: “آنچه آنها می گویند متکی به یک ایده بسیار منسوخ و، من استدلال می کنم، در این مرحله کاملاً بی اعتبار است، که ناشناس سازی یا تجمیع مانند یک گلوله جادویی از طریق نگرانی های حفظ حریم خصوصی است.”
علاوه بر این، بر اساس تحقیقات اخیر، نوع مدل هوش مصنوعی که Aware استفاده میکند میتواند در تولید استنتاج از دادههای انبوه، حدسهای دقیق، به عنوان مثال، در مورد شناسههای شخصی بر اساس زبان، زمینه، اصطلاحات عامیانه و موارد دیگر موثر باشد.
کاک گفت: “هیچ شرکتی اساساً در موقعیتی نیست که بتواند تضمین های گسترده ای در مورد حریم خصوصی و امنیت LLM و این نوع سیستم ها بدهد.” “هیچ کس نیست که بتواند با رویی مستقیم به شما بگوید که این چالش ها حل شده اند.
و در مورد توسل کارکنان چطور؟ ویلیامز گفت: اگر تعامل علامت گذاری شود و کارگر منضبط یا اخراج شود، اگر از همه داده های مربوطه آگاه نباشند، ارائه دفاع برای آنها دشوار است.
ویلیامز گفت: وقتی می دانیم که توضیح هوش مصنوعی هنوز ناپخته است، چگونه در مقابل متهم خود ایستادگی می کنید؟
شومان در پاسخ گفت: “هیچ یک از مدل های هوش مصنوعی ما در مورد نظم و انضباط کارکنان تصمیم یا توصیه نمی کنند.”
شومان گفت: «وقتی یک مدل یک تعامل را نشان میدهد، زمینه کاملی را در مورد آنچه اتفاق افتاده و سیاستی که ایجاد کرده است، فراهم میکند و به تیمهای تحقیق اطلاعاتی را میدهد که برای تصمیمگیری در گامهای بعدی در راستای سیاستهای شرکت و قانون نیاز دارند.»
تماشا کردن: هوش مصنوعی در اینجا با کاهش مشاغل اخیر در فناوری «واقعاً در بازی است».