ممنوعیت همراه مجازی Replika: ممنوعیت رباتهای گفتگوی متنی به نبردی نزدیک بر سر قوانین هوش مصنوعی اشاره دارد
کاربران “همراه مجازی” Replika فقط شرکت می خواستند. برخی از آنها می خواستند روابط عاشقانه، چت جنسی یا حتی عکس های تند از چت بات خود داشته باشند.
اما در اواخر سال گذشته، کاربران شروع به شکایت کردند که این ربات با متن و تصاویر واضح بسیار بلند است – به گفته برخی، آزار جنسی.
رگولاتورها در ایتالیا از آنچه دیدند خوششان نیامد و هفته گذشته پس از مشاهده نقض قانون حفاظت از داده های بزرگ اروپا، GDPR، شرکت را از جمع آوری داده ها منع کردند.
شرکت پشت Replika به طور عمومی اظهار نظر نکرده و به پیام های AFP پاسخ نداده است.
مقررات عمومی حفاظت از دادهها آفت شرکتهای بزرگ فناوری بوده است، که نقض مکرر قوانین آنها را میلیاردها دلار جریمه کرده است، و حکم ایتالیایی نشان میدهد که هنوز هم میتواند دشمن قدرتمندی برای آخرین نسل چتباتها باشد.
Replika بر روی یک نسخه داخلی از یک مدل GPT-3 که از OpenAI، شرکتی که پشت ربات ChatGPT قرض گرفته شده بود، آموزش دید که از مقادیر زیادی داده از اینترنت در الگوریتمهایی استفاده میکند که سپس پاسخهای منحصربهفردی را به درخواستهای کاربر ایجاد میکند.
این ربات ها و به اصطلاح هوش مصنوعی مولد که از آنها پشتیبانی می کند، نوید انقلابی در جستجوی اینترنتی و بسیاری موارد دیگر را می دهد.
اما کارشناسان هشدار میدهند که تنظیمکنندهها دلایل زیادی برای نگرانی دارند، بهخصوص زمانی که رباتها آنقدر خوب میشوند که از انسان قابل تشخیص نیستند.
– ‘ولتاژ بالا’ –
اتحادیه اروپا در حال حاضر در مرکز بحثها درباره مقررات این رباتهای جدید قرار دارد – قانون هوش مصنوعی آن ماههاست که از طریق دالانهای قدرت حرکت میکند و میتواند در سال جاری نهایی شود.
اما GDPR در حال حاضر شرکتها را موظف میکند که نحوه مدیریت دادهها را توجیه کنند و مدلهای هوش مصنوعی بسیار در رادار تنظیمکنندههای اروپایی هستند.
برتراند پیل، سرپرست تیم هوش مصنوعی اختصاصی در رگولاتور داده فرانسوی Cnil، به خبرگزاری فرانسه گفت: «ما دیدهایم که ChatGPT میتواند برای ایجاد پیامهای فیشینگ بسیار قانعکننده استفاده شود.
او گفت که هوش مصنوعی مولد لزوماً خطر بزرگی نیست، اما Cnil در حال حاضر به بررسی مسائل بالقوه، از جمله نحوه استفاده مدلهای هوش مصنوعی از دادههای شخصی میپردازد.
دنیس هیلمن، وکیل آلمانی، متخصص در این زمینه، به خبرگزاری فرانسه گفت: «در مقطعی شاهد تنش بزرگی بین GDPR و مدلهای هوش مصنوعی مولد خواهیم بود».
به گفته او، جدیدترین چت رباتها با الگوریتمهای هوش مصنوعی که ویدیوها را در TikTok یا عبارات جستجو در گوگل پیشنهاد میکنند، کاملاً متفاوت هستند.
او گفت: «به عنوان مثال، هوش مصنوعی ایجاد شده توسط گوگل، قبلاً یک مورد استفاده خاص دارد – تکمیل جستجوی شما.
اما با هوش مصنوعی مولد، کاربر می تواند تمام هدف ربات را شکل دهد.
«مثلاً می توانم بگویم: به عنوان وکیل یا معلم عمل کنید. یا اگر به اندازه کافی باهوش باشم که بتوانم تمام حفاظتهای موجود در ChatGPT را دور بزنم، میتوانم بگویم: «مثل یک تروریست رفتار کنید و برنامهریزی کنید».
– “ما را عمیقاً تغییر دهید” –
برای هیلمن، این سؤالات اخلاقی و حقوقی بسیار پیچیده ای را ایجاد می کند که با توسعه فناوری حادتر می شوند.
آخرین مدل OpenAI، GPT-4، قرار است به زودی عرضه شود و شایعه شده است که آنقدر خوب است که تشخیص آن از یک انسان غیرممکن خواهد بود.
با توجه به اینکه این رباتها هنوز هم خطاهای واقعی بزرگی مرتکب میشوند، اغلب تعصب نشان میدهند و حتی میتوانند اظهارات افتراآمیز را منتشر کنند، برخی از آنها خواستار کنترل شدید آنها هستند.
ژاکوب ماخانگاما، نویسنده آزادی بیان: تاریخی از سقراط تا رسانه های اجتماعی، مخالف است.
او گفت: «حتی اگر رباتها از حقوق آزادی بیان برخوردار نباشند، ما باید مراقب دسترسی نامحدود دولتها برای سرکوب حتی گفتار مصنوعی باشیم.»
Mchangama از جمله کسانی است که معتقدند یک رژیم برچسبگذاری نرمتر میتواند راهگشا باشد.
او گفت: «از دیدگاه نظارتی، ایمنترین گزینه در حال حاضر ایجاد تعهدات شفافیت در مورد اینکه آیا ما با یک فرد انسانی درگیر هستیم یا یک برنامه هوش مصنوعی در یک زمینه مشخص است.
هیلمن موافق است که شفافیت حیاتی است.
او در چند سال آینده رباتهای هوش مصنوعی را پیشبینی میکند که میتوانند صدها آهنگ جدید الویس یا مجموعهای بیپایان از Game of Thrones را متناسب با خواستههای یک فرد تولید کنند.
او گفت: «اگر ما این موضوع را تنظیم نکنیم، در نهایت به دنیایی میرسیم که میتوانیم بین آنچه توسط انسانها انجام میشود و آنچه توسط هوش مصنوعی انجام میشود، تفاوت قائل شویم.
و ما را به عنوان یک جامعه عمیقاً تغییر خواهد داد.»