کامپیوتر

مایکروسافت هشدارهای مربوط به واکنش های وحشیانه به چت بینگ را نادیده گرفت

بینگ چت مایکروسافت نسبت به زمانی که در ماه فوریه راه اندازی شد در موقعیت بسیار بهتری قرار دارد، اما نادیده گرفتن مشکلاتی که چت ربات پشتیبانی شده از GPT-4 هنگام راه اندازی داشت، دشوار است. به ما می‌گفت که بالاخره می‌خواهد انسان باشد، و اغلب به پاسخ‌های بی‌اندیشه می‌رسید. و طبق یک گزارش جدید، مایکروسافت در مورد این نوع پاسخ ها هشدار داده شد و تصمیم گرفت به هر حال Bing Chat را منتشر کند.

به گزارش وال استریت ژورنال، OpenAI، شرکت سازنده ChatGPT و مدل GPT-4 که ​​بینگ چت را تقویت می کند، به مایکروسافت در مورد ادغام مدل اولیه هوش مصنوعی خود در بینگ چت هشدار داد. به طور خاص، OpenAI پاسخ‌های «نادرست یا عجیب» را علامت‌گذاری کرد که به نظر می‌رسد مایکروسافت نادیده گرفته شده است.

بینگ چت می گوید که می خواهد انسان باشد.
جیکوب روچ / روندهای دیجیتال

این گزارش تنش منحصربه‌فرد بین OpenAI و مایکروسافت را توصیف می‌کند که در چند سال گذشته وارد یک مشارکت باز شده‌اند. مدل های OpenAI بر روی سخت افزار مایکروسافت (شامل هزاران پردازنده گرافیکی انویدیا) ساخته شده اند و مایکروسافت از فناوری این شرکت در بینگ، مایکروسافت آفیس و خود ویندوز استفاده می کند. در اوایل سال 2023، مایکروسافت حتی 10 میلیارد دلار در OpenAI سرمایه‌گذاری کرد که از خرید مستقیم شرکت فاصله داشت.

با این حال، این گزارش ادعا می کند که مقامات مایکروسافت با دسترسی محدود به مدل های OpenAI مشکل داشتند و آنها نگران بودند که ChatGPT بر سیلاب های هوش مصنوعی بینگ چت سایه افکند. بدتر از همه، وال استریت ژورنال گزارش می دهد که هم OpenAI و هم مایکروسافت در حال فروش فناوری OpenAI هستند که منجر به موقعیت هایی می شود که فروشندگان با مخاطبین هر دو شرکت سروکار دارند.

مطلب پیشنهادی:  تعجب خواهید کرد که چقدر این مانیتور 27 اینچی 4K ارزان است

بر اساس این گزارش، بزرگترین مشکل این است که مایکروسافت و OpenAI در تلاش برای کسب درآمد با چنین محصولی هستند. توسعه‌دهنده ChatGPT با پشتیبانی مایکروسافت، اما کنترل نکردن OpenAI، آزاد است با شرکت‌های دیگر، که برخی از آنها ممکن است مستقیماً با محصولات مایکروسافت رقابت کنند، شریک شود.

بر اساس آنچه دیدیم، هشدارهای گزارش شده OpenAI آب را در خود جای داده است. مدت کوتاهی پس از راه اندازی بینگ چت، مایکروسافت تعداد پاسخ هایی را که کاربران می توانستند در یک جلسه دریافت کنند محدود کرد. و از آن زمان، مایکروسافت به آرامی محدودیت را حذف کرد زیرا مدل GPT-4 در بینگ چت کامل شد. گزارش ها حاکی از آن است که برخی از کارمندان مایکروسافت اغلب به منظور تمسخر روزهای اولیه بینگ چت (با اسم رمز سیدنی) و پاسخ های آن به «سیدنی» اشاره می کنند.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا