تکنولوژی

به گفته شرکت ها، علیرغم خطرات دیپ فیک و سوگیری، هوش مصنوعی همچنان در امور مالی مفید است

بانک در تصمیم گیری برای وام مسکن از نتایج هوش مصنوعی مغرضانه استفاده می کند. هوش مصنوعی شرکت بیمه تصاویر تبلیغاتی همگون نژادی ایجاد می کند. کاربران سیستم هوش مصنوعی از تجربه بد شکایت دارند.

بر اساس مجموعه مقالاتی که روز پنجشنبه منتشر شد، اینها تنها بخشی از خطرات احتمالی هوش مصنوعی برای مؤسسات مالی است که به دنبال پذیرش فناوری در حال ظهور هستند. گزارش‌های FS-ISAC، یک سازمان غیرانتفاعی که اطلاعات سایبری را بین مؤسسات مالی در سراسر جهان به اشتراک می‌گذارد، همچنین مشکلات دیگری از جمله جعل عمیق و «توهم» را برجسته می‌کند، که در آن مدل‌های زبانی بزرگ اطلاعات نادرستی ارائه می‌دهند که به عنوان حقایق ارائه می‌شوند.

با وجود این خطرات، FS-ISAC بسیاری از کاربردهای بالقوه هوش مصنوعی را برای شرکت های مالی، مانند بهبود دفاع سایبری، ترسیم می کند. کار این گروه خطرات، تهدیدها و فرصت‌هایی را که هوش مصنوعی برای بانک‌ها، مدیران دارایی، شرکت‌های بیمه و سایرین در صنعت ارائه می‌کند، ترسیم می‌کند.

ما در کانال های واتس اپ هستیم. کلیک پیوستن.

مایک سیلورمن، معاون استراتژی و نوآوری در FS-ISAC که مخفف مرکز تجزیه و تحلیل و به اشتراک گذاری خدمات مالی اطلاعات

هوش مصنوعی برای مقاصد مخرب در بخش مالی استفاده می شود، البته به روشی نسبتاً محدود. به عنوان مثال، FS-ISAC گفت هکرها ایمیل‌های فیشینگ مؤثرتری ایجاد کرده‌اند، که اغلب از طریق الگوهای زبان بزرگی مانند ChatGPT اصلاح می‌شوند، که برای فریب کارمندان برای افشای اطلاعات حساس طراحی شده‌اند. سیلورمن گفت، علاوه بر این، ضبط‌های صوتی عمیقا جعلی مشتریان را فریب داد تا وجوه خود را انتقال دهند.

مطلب پیشنهادی:  قانونگذار ایالات متحده از مدیر عامل TikTok می‌خواهد اقدامات حفاظت از کودکان را به تفصیل شرح دهد

FS-ISAC همچنین در مورد مسمومیت داده ها، که در آن داده های وارد شده به مدل های هوش مصنوعی برای ایجاد تصمیمات نادرست یا مغرضانه دستکاری می شوند، و همچنین ظهور مدل های مخرب زبان بزرگ که می توانند برای مقاصد مجرمانه استفاده شوند، هشدار داد.

با این حال، طبق گزارش ها، این فناوری همچنین می تواند برای تقویت امنیت سایبری این شرکت ها مورد استفاده قرار گیرد. سیلورمن گفت که هوش مصنوعی قبلاً نشان داده است که در تشخیص ناهنجاری ها یا تشخیص رفتارهای مشکوک و غیرعادی در سیستم های رایانه ای موثر است. علاوه بر این، این فناوری می‌تواند وظایف معمولی مانند تجزیه و تحلیل فایل‌های گزارش، پیش‌بینی حملات احتمالی آینده و تجزیه و تحلیل «داده‌های بدون ساختار» از رسانه‌های اجتماعی، مقالات خبری و سایر منابع عمومی را برای شناسایی تهدیدها و آسیب‌پذیری‌های بالقوه را خودکار کند.

برای استقرار ایمن هوش مصنوعی، FS-ISAC آزمایش دقیق این سیستم‌ها، نظارت مستمر آنها و داشتن یک طرح بازیابی فاجعه را توصیه می‌کند. این گزارش در مورد دو مسیری که شرکت‌ها می‌توانند در پیش بگیرند، راهنمایی‌های خط‌مشی ارائه می‌دهد: رویکردی سهل‌گیرانه که از فناوری استفاده می‌کند، یا رویکردی محتاطانه‌تر با محدودیت‌های دقیق در مورد نحوه استفاده از هوش مصنوعی. همچنین شامل ارزیابی ریسک فروشنده است که پرسشنامه ای ارائه می دهد که می تواند به کسب و کارها کمک کند تا بر اساس استفاده بالقوه از هوش مصنوعی تصمیم بگیرند کدام فروشنده را انتخاب کنند.

با تطبیق فناوری، سیلورمن انتظار دارد که اسناد نیز برای ارائه استانداردهای صنعتی در زمان اضطراب و عدم اطمینان به روز شوند.

مطلب پیشنهادی:  سالانه تقریباً 10000 شهاب سنگ به زمین برخورد می کنند

“کل سیستم بر اساس اعتماد ساخته شده است. بنابراین توصیه‌هایی که کارگروه ارائه کرد چیزهایی هستند که از این اعتماد حمایت می‌کنند.» سیلورمن گفت.

اخبار برتر امروز را بیشتر بخوانید:

شیدایی هوش مصنوعی! شور و شوق هوش مصنوعی که بر بازار سهام مسلط شده است، بیشترین ثروتی را که ثروتمندترین افراد جهان در سال جاری به لطف تقاضا برای تراشه های هوش مصنوعی به دست آورده اند، تشکیل می دهد. بدانید که این همه چیز در مورد چیست اینجا.

هوش مصنوعی و عشق؟ برنامه های همراه برای کنار آمدن با تنهایی یا دریافت حمایت استفاده می شود و کاربران وابستگی عاطفی به همراهان دیجیتال خود ایجاد کرده اند. دریابید که روابط انسان و هوش مصنوعی چگونه است. به این نگاه کن اینجا.

هکرها با استفاده از ChatGPT! آخرین گزارش مایکروسافت می‌گوید هکرهای دولت ملت از هوش مصنوعی برای تقویت حملات سایبری خود استفاده می‌کنند، زیرا دشمنان پیدا شده‌اند که LLM‌هایی مانند ChatGPT OpenAI را به جعبه ابزار خود اضافه می‌کنند. همه چیز را در مورد آن بدانید اینجا.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا