3 خطر بزرگ فناوری برای سال 2040: رقیب هوش مصنوعی حملات سایبری نامرئی، پیش بینی وحشت را ببینید
تغییرات سریع و شگفت انگیزی در فناوری و دامنه سیستم های کامپیوتری در حال رخ دادن است. پیشرفت های هیجان انگیزی در هوش مصنوعی، در انبوه دستگاه های کوچک متصل به هم که ما آن را اینترنت اشیا می نامیم، و در اتصال بی سیم وجود دارد. متأسفانه، این پیشرفت ها با خطرات و مزایای بالقوه همراه است. برای داشتن آینده ای مطمئن، باید اتفاقاتی که ممکن است در محاسبات رخ دهد را پیش بینی کنیم و به موقع با آن مقابله کنیم. بنابراین کارشناسان فکر می کنند چه اتفاقی خواهد افتاد و چه کاری می توانیم انجام دهیم تا از مشکلات بزرگ جلوگیری کنیم؟
برای پاسخ به این سوال، تیم تحقیقاتی ما از دانشگاههای لنکستر و منچستر به علم نگاه کردن به آینده روی آوردند که به آن «پیشبینی» میگویند. هیچ کس نمی تواند آینده را پیش بینی کند، اما ما می توانیم پیش بینی هایی انجام دهیم: توصیفی از آنچه ممکن است بر اساس روندهای فعلی اتفاق بیفتد.
در واقع، پیشبینیهای بلندمدت روندهای فناوری میتواند به طرز قابل توجهی دقیق باشد. و یک راه عالی برای به دست آوردن پیشبینی، ترکیب ایدههای بسیاری از کارشناسان مختلف برای یافتن جایی که آنها موافق هستند، است.
ما با 12 متخصص “آینده نگر” برای یک مقاله تحقیقاتی جدید مشورت کردیم. اینها افرادی هستند که نقش آنها شامل پیش بینی طولانی مدت اثرات تغییرات در فناوری محاسبات تا سال 2040 است.
با استفاده از تکنیکی به نام نظرسنجی دلفی، پیشبینیهای آیندهپژوهان را در مجموعهای از ریسکها به همراه توصیههای آنها برای رسیدگی به این خطرات ترکیب کردیم.
I. مشکلات نرم افزاری
کارشناسان پیشرفت های سریع در هوش مصنوعی (AI) و سیستم های مرتبط را پیش بینی کرده اند که منجر به ایجاد دنیایی می شود که بسیار بیشتر از امروز کامپیوتر محور است. با این حال، با کمال تعجب، آن ها انتظار تاثیر کمی از دو نوآوری بسیار پرحاشیه را داشتند: بلاک چین، راهی برای ثبت اطلاعات که دستکاری سیستم را غیرممکن یا دشوار می کند، آنها معتقدند تقریباً به مشکلات امروزی بی ربط است. و کامپیوترهای کوانتومی هنوز در مراحل اولیه خود هستند و ممکن است در 15 سال آینده تأثیر کمی داشته باشند.
آینده پژوهان سه خطر اصلی مرتبط با توسعه نرم افزارهای کامپیوتری را به شرح زیر برجسته کردند.
1. رقابت با هوش مصنوعی منجر به مشکلاتی می شود
کارشناسان ما پیشنهاد میکنند که موضع بسیاری از کشورها در مورد هوش مصنوعی بهعنوان حوزهای که میخواهند در آن مزیت رقابتی و تکنولوژیکی به دست آورند، توسعهدهندگان نرمافزار را تشویق میکند تا در استفاده از هوش مصنوعی ریسک کنند. این، همراه با پیچیدگی و پتانسیل هوش مصنوعی برای پیشی گرفتن از توانایی های انسانی، می تواند منجر به فاجعه شود.
به عنوان مثال، تصور کنید که میانبرهای آزمایشی منجر به خطا در سیستمهای کنترل خودروهای تولید شده پس از سال 2025 میشود که در میان برنامهریزیهای پیچیده هوش مصنوعی مورد توجه قرار نمیگیرد. حتی میتوان آن را به یک تاریخ خاص مرتبط کرد و باعث میشود تعداد زیادی از خودروها در همان زمان شروع به رفتار نامنظم کنند و بسیاری از مردم را در سراسر جهان بکشند.
2. هوش مصنوعی مولد
هوش مصنوعی مولد می تواند تعیین حقیقت را غیرممکن کند. سالهاست که جعل کردن عکسها و ویدیوها بسیار سخت بوده است، بنابراین انتظار داریم واقعی باشند. هوش مصنوعی مولد قبلاً این وضعیت را به طور اساسی تغییر داده است. ما انتظار داریم توانایی آن برای ایجاد رسانه های جعلی متقاعد کننده بهبود یابد، بنابراین تشخیص واقعی بودن یک تصویر یا ویدیو بسیار دشوار خواهد بود.
فرض کنید شخصی که در موقعیت اعتماد قرار دارد – یک رهبر محترم یا یک سلبریتی – از رسانه های اجتماعی برای نمایش محتوای واقعی استفاده می کند، اما گاهی اوقات شامل جعلی های متقاعد کننده می شود. برای کسانی که از آنها پیروی می کنند، هیچ راهی برای تشخیص تفاوت وجود ندارد – دانستن حقیقت غیرممکن خواهد بود.
3. حملات سایبری نامرئی
در نهایت، پیچیدگی محض سیستمهایی که قرار است ساخته شوند – شبکههایی از سیستمهای متعلق به سازمانهای مختلف، همه به یکدیگر وابسته هستند – پیامدهای غیرمنتظرهای دارد. اگر نگوییم غیرممکن، یافتن ریشه آنچه باعث اشتباه می شود دشوار خواهد بود.
تصور کنید یک مجرم سایبری برنامه ای را که برای کنترل دستگاه هایی مانند اجاق گاز یا یخچال استفاده می شود هک می کند و باعث می شود همه دستگاه ها به یکباره روشن شوند. این امر باعث افزایش تقاضای برق در شبکه می شود و قطعی برق عمده ایجاد می کند.
کارشناسان در شرکت برق حتی تشخیص اینکه کدام دستگاهها باعث افزایش سنبله شدهاند را یک چالش میدانند، چه رسد به اینکه همه آنها توسط یک برنامه کنترل میشوند. خرابکاری سایبری نامرئی و غیر قابل تشخیص از مشکلات عادی خواهد شد.
II. نرم افزار جو-جیتسو
هدف چنین پیشبینیهایی ایجاد هشدار نیست، بلکه اجازه دادن به ما برای شروع رسیدگی به مسائل است. شاید ساده ترین پیشنهادی که کارشناسان ارائه کردند نوعی نرم افزار جیو جیتسو بود: استفاده از نرم افزار برای محافظت و محافظت از خود. ما میتوانیم با ایجاد کد اضافی که خروجی برنامهها را تأیید میکند، برنامههای رایانهای را وادار کنیم تا بررسیهای ایمنی خود را انجام دهند – در واقع کدی که خودش را بررسی میکند.
به همین ترتیب، ما میتوانیم اصرار داشته باشیم که روشهایی که قبلاً برای اطمینان از عملکرد ایمن نرمافزار استفاده شدهاند همچنان در فناوریهای جدید اعمال شوند. و اینکه جدید بودن این سیستم ها بهانه ای برای نادیده گرفتن اقدامات ایمنی خوب نیست.
III. تصمیمات استراتژیک
با این حال، کارشناسان توافق کردند که پاسخ های فنی به تنهایی کافی نخواهد بود. در عوض، راهحلها در تعامل بین مردم و فناوری یافت میشود.
ما نیاز به ایجاد مهارت هایی برای مقابله با این مشکلات تکنولوژیکی انسانی و اشکال جدید آموزش داریم که از رشته ها خارج می شود. و دولت ها باید اصول ایمنی را برای تدارکات هوش مصنوعی خود ایجاد کنند و قوانین ایمنی هوش مصنوعی در سطح بخش را وضع کنند و روش های توسعه و استقرار مسئولانه را ترویج کنند.
این پیش بینی ها مجموعه ای از ابزارها را برای مقابله با مشکلات احتمالی آینده به ما می دهد. بیایید این ابزارها را در آغوش بگیریم تا به وعده هیجان انگیز آینده فناوری خود پی ببریم.
این داستان های برتر را امروز نیز بخوانید:
پلیس ایکس! Elon Musk's X، شرکتی که قبلاً توییتر نامیده می شد، قصد دارد یک “مرکز عالی اعتماد و ایمنی” جدید بسازد تا به اجرای محتوا و قوانین ایمنی کمک کند. بدانید اینجا همه چیز درباره چیست. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.
آخرالزمان تولید شده توسط هوش مصنوعی؟ در اینجا خطرات اصلی فناوری که تا سال 2040 با آنها روبرو خواهیم شد – رقابت هوش مصنوعی، GenAI و حملات سایبری نامرئی آورده شده است. اینجا شیرجه بزنید جالب بود؟ ادامه دهید و آن را با همه کسانی که می شناسید به اشتراک بگذارید.
یک سیب بد؟ از اوایل ماه مارس، توسعهدهندگان میتوانند فروشگاههای اپلیکیشن آیفون جایگزین را ارائه دهند و از استفاده از سیستم پرداخت درونبرنامهای اپل، که طبق قوانین جدید بلوک، تا 30 درصد کارمزد دریافت میکند، خودداری کنند. با این حال، Spotify از تغییرات راضی نیست. همه چیز را اینجا ببینید.