تکنولوژی

ممنوعیت همراه مجازی Replika: ممنوعیت ربات‌های گفتگوی متنی به نبردی نزدیک بر سر قوانین هوش مصنوعی اشاره دارد

کاربران “همراه مجازی” Replika فقط شرکت می خواستند. برخی از آنها می خواستند روابط عاشقانه، چت جنسی یا حتی عکس های تند از چت بات خود داشته باشند.

اما در اواخر سال گذشته، کاربران شروع به شکایت کردند که این ربات با متن و تصاویر واضح بسیار بلند است – به گفته برخی، آزار جنسی.

رگولاتورها در ایتالیا از آنچه دیدند خوششان نیامد و هفته گذشته پس از مشاهده نقض قانون حفاظت از داده های بزرگ اروپا، GDPR، شرکت را از جمع آوری داده ها منع کردند.

شرکت پشت Replika به طور عمومی اظهار نظر نکرده و به پیام های AFP پاسخ نداده است.

مقررات عمومی حفاظت از داده‌ها آفت شرکت‌های بزرگ فناوری بوده است، که نقض مکرر قوانین آن‌ها را میلیاردها دلار جریمه کرده است، و حکم ایتالیایی نشان می‌دهد که هنوز هم می‌تواند دشمن قدرتمندی برای آخرین نسل چت‌بات‌ها باشد.

Replika بر روی یک نسخه داخلی از یک مدل GPT-3 که از OpenAI، شرکتی که پشت ربات ChatGPT قرض گرفته شده بود، آموزش دید که از مقادیر زیادی داده از اینترنت در الگوریتم‌هایی استفاده می‌کند که سپس پاسخ‌های منحصربه‌فردی را به درخواست‌های کاربر ایجاد می‌کند.

این ربات ها و به اصطلاح هوش مصنوعی مولد که از آنها پشتیبانی می کند، نوید انقلابی در جستجوی اینترنتی و بسیاری موارد دیگر را می دهد.

اما کارشناسان هشدار می‌دهند که تنظیم‌کننده‌ها دلایل زیادی برای نگرانی دارند، به‌خصوص زمانی که ربات‌ها آنقدر خوب می‌شوند که از انسان قابل تشخیص نیستند.

– ‘ولتاژ بالا’ –

اتحادیه اروپا در حال حاضر در مرکز بحث‌ها درباره مقررات این ربات‌های جدید قرار دارد – قانون هوش مصنوعی آن ماه‌هاست که از طریق دالان‌های قدرت حرکت می‌کند و می‌تواند در سال جاری نهایی شود.

مطلب پیشنهادی:  مشاهده آبشار پلاسمایی مرموز روی خورشید؛ CME جدید جرقه طوفان خورشیدی هشدار برای زمین

اما GDPR در حال حاضر شرکت‌ها را موظف می‌کند که نحوه مدیریت داده‌ها را توجیه کنند و مدل‌های هوش مصنوعی بسیار در رادار تنظیم‌کننده‌های اروپایی هستند.

برتراند پیل، سرپرست تیم هوش مصنوعی اختصاصی در رگولاتور داده فرانسوی Cnil، به خبرگزاری فرانسه گفت: «ما دیده‌ایم که ChatGPT می‌تواند برای ایجاد پیام‌های فیشینگ بسیار قانع‌کننده استفاده شود.

او گفت که هوش مصنوعی مولد لزوماً خطر بزرگی نیست، اما Cnil در حال حاضر به بررسی مسائل بالقوه، از جمله نحوه استفاده مدل‌های هوش مصنوعی از داده‌های شخصی می‌پردازد.

دنیس هیلمن، وکیل آلمانی، متخصص در این زمینه، به خبرگزاری فرانسه گفت: «در مقطعی شاهد تنش بزرگی بین GDPR و مدل‌های هوش مصنوعی مولد خواهیم بود».

به گفته او، جدیدترین چت ربات‌ها با الگوریتم‌های هوش مصنوعی که ویدیوها را در TikTok یا عبارات جستجو در گوگل پیشنهاد می‌کنند، کاملاً متفاوت هستند.

او گفت: «به عنوان مثال، هوش مصنوعی ایجاد شده توسط گوگل، قبلاً یک مورد استفاده خاص دارد – تکمیل جستجوی شما.

اما با هوش مصنوعی مولد، کاربر می تواند تمام هدف ربات را شکل دهد.

«مثلاً می توانم بگویم: به عنوان وکیل یا معلم عمل کنید. یا اگر به اندازه کافی باهوش باشم که بتوانم تمام حفاظت‌های موجود در ChatGPT را دور بزنم، می‌توانم بگویم: «مثل یک تروریست رفتار کنید و برنامه‌ریزی کنید».

– “ما را عمیقاً تغییر دهید” –

برای هیلمن، این سؤالات اخلاقی و حقوقی بسیار پیچیده ای را ایجاد می کند که با توسعه فناوری حادتر می شوند.

آخرین مدل OpenAI، GPT-4، قرار است به زودی عرضه شود و شایعه شده است که آنقدر خوب است که تشخیص آن از یک انسان غیرممکن خواهد بود.

مطلب پیشنهادی:  کلاهبرداران از مرگ ملکه الیزابت برای سرقت رمز عبور استفاده می کنند. گرفتار این کلاهبرداری آنلاین نشوید

با توجه به اینکه این ربات‌ها هنوز هم خطاهای واقعی بزرگی مرتکب می‌شوند، اغلب تعصب نشان می‌دهند و حتی می‌توانند اظهارات افتراآمیز را منتشر کنند، برخی از آنها خواستار کنترل شدید آنها هستند.

ژاکوب ماخانگاما، نویسنده آزادی بیان: تاریخی از سقراط تا رسانه های اجتماعی، مخالف است.

او گفت: «حتی اگر ربات‌ها از حقوق آزادی بیان برخوردار نباشند، ما باید مراقب دسترسی نامحدود دولت‌ها برای سرکوب حتی گفتار مصنوعی باشیم.»

Mchangama از جمله کسانی است که معتقدند یک رژیم برچسب‌گذاری نرم‌تر می‌تواند راه‌گشا باشد.

او گفت: «از دیدگاه نظارتی، ایمن‌ترین گزینه در حال حاضر ایجاد تعهدات شفافیت در مورد اینکه آیا ما با یک فرد انسانی درگیر هستیم یا یک برنامه هوش مصنوعی در یک زمینه مشخص است.

هیلمن موافق است که شفافیت حیاتی است.

او در چند سال آینده ربات‌های هوش مصنوعی را پیش‌بینی می‌کند که می‌توانند صدها آهنگ جدید الویس یا مجموعه‌ای بی‌پایان از Game of Thrones را متناسب با خواسته‌های یک فرد تولید کنند.

او گفت: «اگر ما این موضوع را تنظیم نکنیم، در نهایت به دنیایی می‌رسیم که می‌توانیم بین آنچه توسط انسان‌ها انجام می‌شود و آنچه توسط هوش مصنوعی انجام می‌شود، تفاوت قائل شویم.

و ما را به عنوان یک جامعه عمیقاً تغییر خواهد داد.»


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا