تکنولوژی

«پدر اینترنت» به سرمایه گذاران درباره چت ربات های هوش مصنوعی هشدار می دهد

وینت سرف، که به عنوان پدر اینترنت شناخته می‌شود، روز دوشنبه وقتی از سرمایه‌گذاران خواست در کسب‌وکارهایی که حول ربات‌های گفتگوی محاوره‌ای ساخته می‌شوند، مراقب باشند، کمی انتقاد کرد.

سرف، نایب رئیس گوگل که یک ربات چت هوش مصنوعی به نام Bard در حال توسعه دارد، می‌گوید ربات‌ها هنوز هم اشتباهات زیادی مرتکب می‌شوند.

وقتی او از ChatGPT، رباتی که توسط OpenAI ساخته شده بود، خواست تا برای او بیوگرافی بنویسد، بسیاری از چیزها اشتباه پیش رفت، او به حضار در اجلاس TechSurge Deep Tech Summit که توسط شرکت سرمایه گذاری مخاطره آمیز Celesta سازماندهی شد و در موزه تاریخ کامپیوتر برگزار شد، گفت. مانتین ویو، کالیفرنیا

«مثل تیراندازی برای سالاد است. مخلوط می کند [facts] به گزارش Silicon Angle، سرف گفت: با هم چون او چیز بهتری نمی داند.

او به سرمایه گذاران توصیه کرد که از یک فناوری حمایت نکنند، زیرا به نظر جالب می رسد یا “سر و صدا” ایجاد می کند.

سرف همچنین توصیه کرد که هنگام سرمایه گذاری در هوش مصنوعی ملاحظات اخلاقی را در نظر بگیرند.

او گفت: “مهندسانی مانند من باید مسئول تلاش برای یافتن راهی برای مهار برخی از این فناوری‌ها باشند تا احتمال بروز مشکل کمتری داشته باشند.”

نظارت انسانی لازم است

همانطور که سرف اشاره می کند، برای شرکت هایی که به دنبال پیوستن به مسابقه هوش مصنوعی هستند، مشکلاتی وجود دارد.

گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب سایت خبری، تفسیری و تحلیلی، خاطرنشان کرد: نادرستی و اطلاعات نادرست، سوگیری و نتایج توهین آمیز همه خطرات بالقوه ای هستند که مشاغل هنگام استفاده از هوش مصنوعی با آن مواجه هستند.

استرلینگ به دیجیتال تو گفت: «خطرات به موارد استفاده بستگی دارد. آژانس‌های دیجیتالی که بیش از حد به ChatGPT یا سایر ابزارهای هوش مصنوعی برای ایجاد محتوا یا تکمیل کار برای مشتریان متکی هستند، ممکن است نتایجی کمتر از حد مطلوب ایجاد کنند یا به نحوی به مشتری آسیب بزنند.

مطلب پیشنهادی:  تجزیه و تحلیل - موضوعات "دوستانه" متا به یک اینترنت خصمانه وارد می شود

با این حال، او اطمینان داد که کنترل و تعادل و نظارت قوی انسانی می تواند این خطرات را کاهش دهد.


مارک ان. ونا، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا، هشدار داد که کسب و کارهای کوچکی که تجربه ای با این فناوری ندارند، باید قبل از استفاده از هوش مصنوعی مراقب باشند.

وینا به دیجیتال تو گفت: «حداقل، هر شرکتی که هوش مصنوعی را در روش انجام تجارت خود گنجانده است، باید پیامدهای آن را درک کند.

او ادامه داد: “حریم خصوصی – به ویژه در سطح مشتری – بدیهی است که یک منطقه نگرانی بزرگ است.” شرایط و ضوابط استفاده باید بسیار واضح باشد، همچنین مسئولیت در صورتی که قابلیت‌های هوش مصنوعی محتوا تولید کند یا اقداماتی را انجام دهد که مشاغل را در برابر مسئولیت‌های بالقوه باز می‌کند، مشخص باشد.»

اخلاق نیاز به تحقیق دارد

در حالی که سرف دوست دارد که کاربران و توسعه دهندگان هوش مصنوعی هنگام عرضه محصولات هوش مصنوعی به بازار، اخلاقیات را در نظر بگیرند، این می تواند یک کار چالش برانگیز باشد.

استرلینگ خاطرنشان کرد: «بیشتر کسب و کارهایی که از هوش مصنوعی استفاده می کنند بر کارایی و صرفه جویی در زمان یا هزینه متمرکز هستند. برای اکثر آنها، اخلاق یک نگرانی ثانویه خواهد بود یا حتی نادیده گرفته می شود.»

وینا افزود: مسائل اخلاقی وجود دارد که باید قبل از پذیرش گسترده هوش مصنوعی مورد توجه قرار گیرد. وی به عنوان نمونه به بخش آموزش اشاره کرد.

او پرسید: «آیا برای دانش‌آموز اخلاقی است که مقاله‌ای را که کاملاً از یک ابزار هوش مصنوعی مشتق شده است ارسال کند؟» “حتی اگر محتوا به معنای دقیق سرقت ادبی نباشد زیرا ممکن است “اصیل” باشد، من معتقدم که اکثر مدارس – به ویژه در سطح دبیرستان و کالج – این را رد می کنند.”

او گفت: “مطمئن نیستم که رسانه های خبری در مورد استفاده از ChatGPT توسط خبرنگارانی که در مورد رویدادهای بلادرنگ گزارش می دهند، که اغلب بر قضاوت های انتزاعی که ابزار هوش مصنوعی می تواند با آنها دست و پنجه نرم می کند تکیه می کنند، هیجان زده شوند.”

مطلب پیشنهادی:  فیس بوک Parent Meta 11000 شغل را کاهش می دهد. مارک زاکربرگ می گوید من اشتباه می کردم

او ادامه داد: «اخلاق باید نقش قوی ایفا کند، به همین دلیل است که باید یک آیین نامه رفتاری برای هوش مصنوعی وجود داشته باشد که کسب و کارها و حتی رسانه ها باید مجبور به موافقت با آن شوند و شرایط انطباق باید بخشی از شرایط و ضوابط شود. هنگام استفاده از ابزارهای هوش مصنوعی.’

عواقب ناخواسته

بن کوبرن، رئیس ارتباطات و سیاست عمومی در Neeva، یک موتور جستجوی مبتنی بر هوش مصنوعی مستقر در واشنگتن، می‌گوید: برای هر کسی که درگیر هوش مصنوعی است اطمینان حاصل شود که کاری را که انجام می‌دهد مسئولانه انجام می‌دهد، مهم است.

کوبرن به دیجیتال تو گفت: «بسیاری از پیامدهای ناخواسته فناوری‌های قبلی نتیجه یک مدل اقتصادی بود که انگیزه‌های تجاری را با کاربر نهایی همسو نمی‌کرد. شرکت‌ها باید بین ارائه خدمات به تبلیغ‌کننده یا کاربر نهایی یکی را انتخاب کنند. بیشتر اوقات تبلیغ کننده برنده می شد. “


او ادامه داد: «اینترنت رایگان نوآوری باورنکردنی را امکان پذیر کرده است، اما بهایی دارد. “این هزینه مربوط به حریم خصوصی یک فرد، زمان یک فرد، توجه یک فرد بود.”

او گفت: «همین اتفاق در مورد هوش مصنوعی نیز رخ خواهد داد. “آیا هوش مصنوعی در یک مدل تجاری که با مصرف کنندگان یا تبلیغ کنندگان همسو باشد پیاده سازی خواهد شد؟”

به نظر می رسد درخواست های سرف برای احتیاط با هدف کند کردن ورود محصولات هوش مصنوعی به بازار باشد، اما این بعید به نظر می رسد.

کوبرن خاطرنشان کرد: «ChatGPT صنعت را بسیار سریعتر از آنچه انتظار داشت به جلو سوق داده است.

استرلینگ افزود: “مسابقه ادامه دارد و راه برگشتی وجود ندارد.”

او گفت: «عرضه سریع این محصولات به بازار خطرات و مزایایی دارد. اما فشارهای بازار و انگیزه‌های مالی برای اقدام در حال حاضر از محدودیت‌های اخلاقی بیشتر خواهد بود.» بزرگ‌ترین شرکت‌ها درباره «هوش مصنوعی مسئولانه» صحبت می‌کنند، اما بدون توجه به آن در حال حرکت به جلو هستند.

مطلب پیشنهادی:  مایکروسافت و گوگل برنامه نویسان هندی را جذب می کنند تا رهبری هوش مصنوعی را به دست آورند

فناوری تحول آفرین

سرف در سخنان خود در اجلاس TechSurge به سرمایه گذاران یادآوری کرد که همه افرادی که از فناوری های هوش مصنوعی استفاده می کنند، آنطور که در نظر گرفته شده استفاده نمی کنند. او گفته است که “آنها به دنبال انجام کاری خواهند بود که به نفع آنهاست، نه به نفع شما.”

استرلینگ خاطرنشان کرد: «دولت‌ها، سازمان‌های غیردولتی و صنعت باید با یکدیگر همکاری کنند تا قوانین و استانداردهایی را تدوین کنند که باید در این محصولات ایجاد شود تا از سوء استفاده جلوگیری شود».

وی ادامه داد: چالش و مشکل این است که بازار و پویایی رقابتی سریعتر و بسیار قدرتمندتر از سیاست و فرآیندهای دولتی حرکت می کند. اما مقررات در راه است. این فقط این است که چه زمانی و چگونه به نظر می رسد.»


هودان عمر، تحلیلگر ارشد سیاست هوش مصنوعی در مرکز نوآوری داده، یک اندیشکده مستقر در واشنگتن دی سی که تلاقی داده ها، فناوری و خط مشی عمومی را مطالعه می کند، گفت: سیاست گذاران مدتی است که با مسئولیت پذیری در زمینه هوش مصنوعی دست و پنجه نرم می کنند.

عمر به دیجیتال تو گفت: توسعه دهندگان باید هنگام ایجاد سیستم های هوش مصنوعی مسئولیت پذیر باشند. “آنها باید اطمینان حاصل کنند که چنین سیستم هایی بر روی مجموعه داده های نماینده آموزش دیده اند.”

با این حال، او اضافه کرد که اپراتورهای سیستم های هوش مصنوعی مهمترین تصمیمات را در مورد نحوه تأثیر سیستم های هوش مصنوعی بر جامعه خواهند گرفت.

کوبرن افزود: واضح است که هوش مصنوعی اینجاست تا بماند. این امر بسیاری از جنبه های زندگی ما را متحول خواهد کرد، به ویژه نحوه دسترسی، مصرف و تعامل ما با اطلاعات در اینترنت.”

او در پایان گفت: «این متحول‌کننده‌ترین و هیجان‌انگیزترین فناوری است که از زمان آیفون دیده‌ایم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا