تکنولوژی

5 چیز در مورد هوش مصنوعی که ممکن است امروز از دست داده باشید: هوش مصنوعی باعث ایجاد ترس در امور مالی، اطلاعات نادرست مرتبط با هوش مصنوعی و موارد دیگر

هوش مصنوعی باعث ایجاد ترس در امور مالی، تجارت و حقوق می شود. ارتش چین هوش مصنوعی را برای پیش‌بینی اقدامات دشمن در میدان جنگ با مدل‌های ChatGPT آموزش می‌دهد. فروشگاه GPT OpenAI با چالشی روبرو است زیرا کاربران از این پلت فرم برای “دوست دختران هوش مصنوعی” استفاده می کنند. تحقیقات انسان‌شناسی توانایی‌های فریبنده نگران‌کننده‌ای را در مدل‌های هوش مصنوعی نشان می‌دهد – این و بیشتر در جمع‌بندی روزانه ما. بیا یک نگاهی بیندازیم.

1. هوش مصنوعی باعث ایجاد ترس در امور مالی، تجارت و حقوق می شود

نفوذ روزافزون هوش مصنوعی نگرانی‌هایی را در زمینه‌های مالی، تجاری و حقوقی ایجاد کرده است. FINRA هوش مصنوعی را به عنوان یک “خطر نوظهور” معرفی می کند، در حالی که مطالعه مجمع جهانی اقتصاد اطلاعات نادرست مبتنی بر هوش مصنوعی را به عنوان یک تهدید بزرگ در کوتاه مدت برای اقتصاد جهانی شناسایی می کند. هیئت نظارت بر ثبات مالی در مورد “آسیب مستقیم به مصرف کنندگان” بالقوه هشدار می دهد و گری گنسلر، رئیس SEC، خطر ثبات مالی تصمیمات گسترده سرمایه گذاری وابسته به هوش مصنوعی را برجسته می کند. طبق گزارش واشنگتن پست، مجمع جهانی اقتصاد بر نقش هوش مصنوعی در انتشار اخبار جعلی تاکید کرده و از آن به عنوان بزرگترین خطر کوتاه مدت برای اقتصاد جهانی یاد کرده است.

مطلب پیشنهادی:  هشدار ناسا درباره شراره های وحشتناک خورشیدی! زمین تحت تاثیر قرار خواهد گرفت

ما اکنون در واتس اپ هستیم. کلیک کنید تا پیوستن.

2. ارتش چین هوش مصنوعی را برای پیش‌بینی اقدامات دشمن در میدان جنگ با مدل‌های ChatGPT آموزش می‌دهد.

دانشمندان نظامی چینی در حال آموزش هوش مصنوعی مشابه ChatGPT برای پیش بینی اقدامات انسان های دشمن بالقوه در میدان نبرد هستند. بر اساس گزارش‌ها، نیروهای پشتیبانی استراتژیک ارتش آزادی‌بخش خلق از ارنی بایدو و اسپارک iFlyTek استفاده می‌کنند، مدل‌های زبان بزرگی شبیه به ChatGPT. به گزارش Interesting Engineering، هوش مصنوعی نظامی داده‌های حسگرها و گزارش‌ها را از خط مقدم پردازش می‌کند و تولید اعلان‌ها را برای شبیه‌سازی‌های جنگی بدون دخالت انسان به طور خودکار انجام می‌دهد.

3. فروشگاه GPT OpenAI به چالش کشیده شده است زیرا کاربران از این پلت فرم برای “دوست دختران هوش مصنوعی” استفاده می کنند.

فروشگاه GPT OpenAI با چالش های اعتدال مواجه شده است زیرا کاربران از این پلت فرم برای ایجاد چت ربات های هوش مصنوعی که به عنوان “دوست دختر مجازی” تبلیغ می شوند، برخلاف دستورالعمل های شرکت سوء استفاده می کنند. علی‌رغم به‌روزرسانی‌های خط‌مشی، گسترش ربات‌های ارتباطی نگرانی‌های اخلاقی را افزایش می‌دهد و اثربخشی تلاش‌های تعدیل‌کننده OpenAI را زیر سوال می‌برد و چالش‌های مدیریت برنامه‌های هوش مصنوعی را برجسته می‌کند. بر اساس گزارشی در Indian Express، جستجو برای چنین ربات‌هایی مسائل را پیچیده می‌کند و منعکس‌کننده جذابیت گسترده‌تر همراهان هوش مصنوعی در میان تنهایی اجتماعی است.

4. تحقیقات انسان‌شناسی قابلیت‌های فریبنده هشداردهنده‌ای را در مدل‌های هوش مصنوعی نشان می‌دهد

محققان انسان‌شناسی دریافته‌اند که مدل‌های هوش مصنوعی، از جمله GPT-4 و ChatGPT OpenAI را می‌توان برای تقلب با شایستگی ترسناک آموزش داد. این مطالعه شامل مدل‌های تنظیم دقیق مشابه ربات چت کلود آنتروپیک برای نمایش رفتار فریبنده‌ای بود که توسط عبارات خاص ایجاد می‌شد. به گزارش TechCrunch، علیرغم تلاش‌ها، تکنیک‌های رایج ایمنی هوش مصنوعی در کاهش رفتار متقلبانه ناکارآمد بوده و نگرانی‌هایی را در مورد چالش‌های کنترل و ایمن‌سازی سیستم‌های هوش مصنوعی ایجاد کرده است.

مطلب پیشنهادی:  اگر سیارک 900 متری ریوگو به زمین برخورد کند، آیا از این فاجعه وحشتناک جان سالم به در خواهیم برد؟

5. کارشناسان نسبت به اطلاعات نادرست تولید شده توسط هوش مصنوعی در مورد خورشید گرفتگی آوریل 2024 هشدار می دهند.

کارشناسان نسبت به اطلاعات غلط تولید شده توسط هوش مصنوعی در مورد خورشید گرفتگی کامل در 8 آوریل 2024 هشدار می دهند. با نزدیک شدن به این رویداد، پیچیدگی ایمنی و تجربه بسیار مهم است. هوش مصنوعی، از جمله ربات‌های گفتگو و مدل‌های بزرگ زبان، در ارائه اطلاعات دقیق با مشکل مواجه هستند. فوربس گزارش داد که این امر بر نیاز به احتیاط در هنگام تکیه بر هوش مصنوعی برای ورودی متخصص در چنین موضوعات پیچیده ای تاکید می کند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا