تکنولوژی

سام آلتمن و بیل گیتس خطرات هوش مصنوعی را در سال بزرگ انتخابات بررسی می کنند

در حالی که نزدیک به نیمی از جمعیت جهان قرار است در انتخابات ملی در سال 2024 رای دهند، رهبران مجمع جهانی اقتصاد درگیر این هستند که چگونه ورود ChatGPT بر آن دموکراسی ها تأثیر می گذارد – و دولت ها چگونه هوش مصنوعی را تنظیم خواهند کرد. رهبران در زمینه هوش مصنوعی، از جمله سم آلتمن از OpenAI و بنیانگذار شرکت مایکروسافت. بیل گیتس، این هفته در داووس، کنفرانس طلایی سالانه که در آن میلیاردرها در مورد مسائل جهانی صحبت می کنند، شرکت کرد. در حالی که همه گفتند که تهدید هوش مصنوعی برای انتخابات را جدی می‌گرفتند، در مورد اینکه آیا فکر می‌کردند یک اختلال بزرگ محتمل است یا خیر، اختلاف نظر وجود داشت. مدیر عامل شرکت مایکروسافت ساتیا نادلا خطرات را تا حدودی کم اهمیت جلوه داد. وی روز سه‌شنبه در خانه بلومبرگ در داووس گفت: «این اولین انتخاباتی نیست که در آن اطلاعات نادرست یا اطلاعات نادرست و مداخله در انتخابات چالشی واقعی است که همه ما باید با آن مقابله کنیم.

بعداً در روز، آلتمن این احساس را تکرار کرد، اما عدم اطمینان بیشتری را ابراز کرد. او گفت: «فکر نمی‌کنم مثل قبل باشد. تلاش برای مبارزه با آخرین جنگ همیشه اشتباه است.» آلتمن و نادلا یک روز پس از اولین نبرد مهم جناحی در انتخابات ریاست جمهوری ایالات متحده صحبت کردند که در آن دونالد ترامپ، رئیس جمهور سابق آمریکا به راحتی بر همتایان جمهوریخواه خود پیروز شد. آخرین باری که ایالات متحده به پای صندوق‌های رای رفت ChatGPT در دسترس نبود، و نگرانی فزاینده‌ای وجود دارد که – علاوه بر آسان‌تر کردن کدنویسی یا ساخت ایمیل‌ها – از ابزارهای هوش مصنوعی مولد برای تولید اطلاعات نادرست و تصاویر نادرست که به‌طور ناعادلانه بر رأی‌دهندگان تأثیر می‌گذارد استفاده شود. . در هشداری درباره آنچه که در راه است، ویدئوهایی که شامل صداهای جعلی عمیق سیاستمداران تولید شده توسط هوش مصنوعی بود، پیش از انتخابات پارلمانی اسلواکی در سال گذشته منتشر شد. در گزارشی در موسسه Reset، یک گروه تحقیقاتی که به تأثیر فناوری بر دموکراسی می‌پردازد، گفت: آنها در سایت‌هایی از جمله فیس‌بوک و اینستاگرام متا پلتفرم‌ها و برنامه‌های پیام‌رسانی مانند تلگرام، که شامل جعل صوتی مخالفان سیاسی می‌شد، به اشتراک گذاشته شدند. زمان . یکی از ویدئوها شامل یک کلیپ جعلی دو دقیقه ای از یک رهبر حزب است که به نظر می رسد در مورد خرید رای بحث می کند. اما فایل صوتی توسط یک ابزار هوش مصنوعی که بر روی نمونه‌هایی از صدای او آموزش داده شده است، ترکیب شده است. در داووس، بیل گیتس، یکی از بنیانگذاران مایکروسافت، در مصاحبه ای با فرانسین لاکوا از بلومبرگ، پیش بینی کرد که با ابزارهای هوش مصنوعی مولد، “افراد بد بهره وری بیشتری خواهند داشت.”

مطلب پیشنهادی:  Lemon8 چیست و چه ارتباطی با TikTok دارد که زیر آتش است

در همین حال، مدیرعامل Salesforce Inc. مارک بنیوف پیشنهاد کرده است که رسانه های اجتماعی خطر بیشتری نسبت به هوش مصنوعی برای فرآیند دموکراتیک دارند. او گفت: «سازمان‌های نظارتی کار خود را انجام نداده‌اند.

آلتمن گفت OpenAI که مایکروسافت را بزرگترین سرمایه‌گذار خود می‌داند، روی کاهش احتمال سوءاستفاده سیاسی از ابزارهای خود مانند ChatGPT و Dall-E متمرکز است.

آلتمن و نادلا در جلسه ای در ماه می با معاون رئیس جمهور ایالات متحده کامالا هریس برای گفتگو در مورد خطرات هوش مصنوعی شرکت کردند. این استارت آپ روز دوشنبه اعلام کرد که OpenAI به زودی ابزاری را برای آزمایش عرضه می کند که می تواند محتوای تولید شده توسط هوش مصنوعی و مواد واترمارک دیجیتالی تولید شده توسط Dall-E را شناسایی کند. او تکرار کرد که استفاده از مدل‌های OpenAI برای مبارزات سیاسی مجاز نیست.

آلتمن گفت: «ذهن ما آسوده نیست. امسال باید این موضوع را از نزدیک تماشا کنیم.»

آلتمن در مورد اینکه سیاست چگونه بر هوش مصنوعی تأثیر می گذارد، کمتر نگران بود. من معتقدم که آمریکا بدون توجه به اینکه در این انتخابات چه اتفاقی می افتد خوب خواهد بود.» من معتقدم هوش مصنوعی بدون توجه به اینکه بعد از این انتخابات چه اتفاقی می افتد خوب خواهد بود.»

آنا ماکانجو، معاون امور جهانی OpenAI، گفت که از مقررات پیشنهادی ارائه شده توسط رئیس جمهور جو بایدن و اتحادیه اروپا تشویق شده است. او گفت: «آنچه که من را تحت تأثیر قرار داد و واقعاً قابل توجه بود این است که گفتگو در مورد هوش مصنوعی بسیار دوجانبه باقی مانده است.

مطلب پیشنهادی:  به روز رسانی WhatsApp: ویژگی جدیدی که به شما امکان می دهد وضعیت اینستاگرام را به راحتی به اشتراک بگذارید - جزئیات

آلتمن موافقت کرد، به نوعی: “هر دو طرف از او متنفرند.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا