تکنولوژی

چگونه هوش مصنوعی آزادی بیان را تهدید می کند – و در مورد آن چه باید کرد

سرفصل‌های تهدیدات هوش مصنوعی (AI) معمولاً پر از روبات‌های قاتل یا ترس از این است که وقتی آن‌ها نمی‌کشند، همان روبات‌ها مشاغل انسانی را خواهند گرفت. اما یک خطر جدی که به طور شگفت انگیزی توجه رسانه ها به آن کم است، تأثیری است که این فناوری های جدید احتمالاً بر آزادی بیان خواهند داشت.

و به طور خاص چگونه آنها می توانند برخی از اساسی ترین اصول حقوقی را که از آزادی بیان حمایت می کنند، تضعیف کنند.

هر بار که یک فناوری ارتباطی جدید وارد جامعه می شود، تعادلی را که قبلاً بین ثبات اجتماعی و آزادی فردی حاصل شده بود، برهم می زند.

ما در حال گذر از این موضوع هستیم. رسانه‌های اجتماعی شکل‌های جدیدی از شبکه‌سازی، نظارت، و قرار گرفتن در معرض عمومی را فعال کرده‌اند که منجر به افزایش قطبی‌سازی سیاسی، افزایش پوپولیسم جهانی، و شیوع آزار و اذیت و سوء استفاده آنلاین شده است.

در مقابل همه این‌ها، آزادی بیان به یک موضوع توتمی در جنگ‌های فرهنگی تبدیل شده است، موقعیت آن هم توسط نیروهای اجتماعی که توسط پلتفرم‌های رسانه‌های اجتماعی آزاد شده‌اند، تقویت شده و تهدید شده است.

با این حال، بحث‌های مربوط به آزادی بیان معمولاً در بحث‌هایی درباره «فرهنگ زدایی» و تفکر «بیدار» غرق می‌شود. این خطر نادیده گرفتن تأثیر فناوری بر نحوه عملکرد قوانین آزادی بیان است.

به ویژه، روشی که هوش مصنوعی به دولت‌ها و شرکت‌های فناوری این امکان را می‌دهد که بیان را با سهولت روزافزون و در مقیاس و سرعت بالا سانسور کنند. این یک مشکل جدی است که من در کتاب جدیدم، آینده زبان، بررسی می کنم.

تعادل ظریف آزادی بیان

برخی از مهم‌ترین حمایت‌های آزادی بیان در دموکراسی‌های لیبرال مانند بریتانیا و ایالات متحده به نکات فنی در نحوه واکنش قانون به اقدامات واقعی شهروندان عادی متکی است.

مطلب پیشنهادی:  مردی که تلفن همراه را اختراع کرد، از آیفون، اپل واچ، هر سال به یک گوشی جدید ارتقاء می‌دهد

یک عنصر کلیدی سیستم کنونی بر این واقعیت متکی است که ما، به عنوان افراد مستقل، توانایی منحصر به فردی برای تبدیل ایده های خود به کلمات و انتقال آنها به دیگران داریم. این ممکن است غیر قابل توجه به نظر برسد. اما روشی که قانون در حال حاضر کار می کند بر اساس این فرض ساده در مورد رفتار اجتماعی انسان است و این چیزی است که هوش مصنوعی تهدید می کند.

حمایت از آزادی بیان در بسیاری از جوامع لیبرال با استفاده از “محدودیت قبلی” – یعنی جلوگیری از بیان قبل از بیان آن – مخالف است.

به عنوان مثال، دولت نباید بتواند از انتشار یک مطلب خاص توسط روزنامه جلوگیری کند، اگرچه می تواند پس از انتشار آن را تحت پیگرد قانونی قرار دهد، اگر معتقد باشد این مقاله هر گونه قانونی را نقض می کند. استفاده از محدودیت قبلی در حال حاضر در کشورهایی مانند چین که رویکرد بسیار متفاوتی برای تنظیم بیان دارند، رواج یافته است.

این مهم است زیرا علیرغم آنچه آزادیخواهان فناوری مانند ایلان ماسک ممکن است ادعا کنند، هیچ جامعه ای در جهان آزادی مطلق بیان را مجاز نمی داند. همیشه باید تعادلی بین محافظت از مردم در برابر آسیب واقعی که زبان می تواند ایجاد کند (مثلاً با بدنام کردن آنها) و حمایت از حق مردم برای بیان نظرات بحث برانگیز و انتقاد از صاحبان قدرت ایجاد شود. یافتن تعادل مناسب بین آنها یکی از دشوارترین تصمیمات جامعه است.

هوش مصنوعی و پیش گرفتن

با توجه به اینکه امروزه بسیاری از ارتباطات ما با واسطه فناوری انجام می شود، اکنون استفاده از کمک هوش مصنوعی برای اعمال محدودیت های اولیه و با سرعت زیاد و در مقیاس وسیع بسیار آسان است. این شرایطی را ایجاد می‌کند که در آن توانایی اولیه انسان برای تبدیل ایده‌ها به گفتار و همچنین زمانی که دولت (یا پیمانکار رسانه‌های اجتماعی) بخواهد، به خطر بیفتد.

مطلب پیشنهادی:  مطالعه: سیارک 10 کیلومتری که همه دایناسورها را کشت، باعث ایجاد یک زلزله بزرگ شد

به عنوان مثال، قانون ایمنی آنلاین اخیر در بریتانیا، و همچنین برنامه هایی در ایالات متحده و اروپا برای استفاده از “فیلتر آپلود” (ابزارهای الگوریتمی برای جلوگیری از بارگذاری محتوای خاص) به عنوان راهی برای بررسی پست های توهین آمیز یا غیرقانونی، همه پلتفرم های رسانه های اجتماعی را تشویق کنید تا از هوش مصنوعی برای سانسور در منبع استفاده کنند.

دلیل ارائه شده برای این امر عملی است. با چنین حجم عظیمی از محتوا که هر دقیقه از روز آپلود می شود، نظارت بر همه چیز برای تیم هایی از افراد بسیار چالش برانگیز می شود. هوش مصنوعی یک جایگزین سریع و بسیار ارزان‌تر است.

اما همچنین خودکار است، قادر به استفاده از زندگی واقعی نیست و تصمیمات آن به ندرت در معرض نظارت عمومی قرار می گیرد. عواقب این امر این است که فیلترهای مبتنی بر هوش مصنوعی اغلب می توانند محتوایی را سانسور کنند که نه غیرقانونی و نه توهین آمیز است.

آزادی بیان آنطور که ما امروز آن را درک می کنیم متکی به فرآیندهای قانونی خاص حمایت است که طی قرن ها تکامل یافته است. این یک ایده انتزاعی نیست، بلکه مبتنی بر رویه های اجتماعی و قانونی بسیار ملموس است.

قوانینی که مقررات محتوا را از طریق اتوماسیون ترویج می کند، این فرآیندها را به عنوان موارد فنی رد می کند. با انجام این کار، کل نهاد آزادی بیان را به خطر می اندازد.

آزادی بیان همیشه ایده ای خواهد بود که با بحث های مداوم حفظ می شود. هرگز فرمول مشخصی برای تعیین اینکه چه چیزی باید ممنوع شود و چه چیزی نباید وجود داشته باشد وجود ندارد. بنابراین تعیین اینکه چه چیزی قابل قبول و غیرقابل قبول تلقی می شود باید در یک جامعه باز و قابل تجدید نظر باشد.

مطلب پیشنهادی:  سام آلتمن می گوید که OpenAI «گفتار، تصاویر و ویدیوها» را در GPT ترکیب می کند

در حالی که نشانه‌هایی وجود دارد که برخی از دولت‌ها هنگام برنامه‌ریزی برای آینده هوش مصنوعی شروع به درک این موضوع کرده‌اند، اما باید در چنین برنامه‌هایی نقش محوری داشته باشد.

هر نقشی که هوش مصنوعی در کمک به نظارت بر محتوای آنلاین ایفا می کند، نباید توانایی ما را برای بحث کردن با یکدیگر درباره نوع جامعه ای که می خواهیم ایجاد کنیم محدود کند.

این داستان های برتر را امروز نیز بخوانید:

خطر سلامت هوش مصنوعی! سازمان جهانی بهداشت هشدار داد: «از آنجایی که LMM ها کاربرد وسیع تری در سلامت و پزشکی پیدا می کنند، خطاها، استفاده نادرست و در نهایت آسیب به انسان ها اجتناب ناپذیر است». برخی از مزایا را نیز بررسی کنید. اکنون آنها را اینجا ببینید. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.

بدون ChatGPT Bang برای بینگ باک! هنگامی که مایکروسافت اعلام کرد که ChatGPT را در موتور جستجوی Bing خود گنجانده است، تحلیلگران خوش‌بین از این حرکت به عنوان “لحظه آیفون” استقبال کردند. اما به نظر نمی رسد این اتفاق افتاده باشد. بدانید اینجا چه اتفاقی افتاده است.

انسان ها ترامپ هوش مصنوعی! سام آلتمن، مدیر عامل OpenAi می گوید مردم به اندازه کافی باهوش هستند که بدانند از ChatGPT برای چه چیزی استفاده کنند و نه. سام آلتمن می‌گوید: «مردم راه‌هایی پیدا کرده‌اند که ChatGPT را برایشان فوق‌العاده مفید کنند و بفهمند که در بیشتر موارد از آن استفاده نکنند». همه چیز در مورد آن را اینجا بخوانید. اگر از خواندن این مقاله لذت بردید، لطفا آن را برای دوستان و خانواده خود ارسال کنید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا