تکنولوژی

OpenAI خالق ChatGPT سیستم جدید هوش مصنوعی GPT-4 را معرفی کرد

OpenAI از GPT-4، جانشین ابزار هوش مصنوعی که سرویس ویروسی ChatGPT و برنامه ایجاد تصویر Dall-E را ایجاد کرد، رونمایی کرد. این شرکت گفت نسخه جدید این فناوری دقیق تر، خلاقانه تر و مشارکتی تر است.

GPT-4 که ​​مخفف ترانسفورماتور 4 از پیش آموزش داده شده تولیدی است، برای مشترکین پولی OpenAI ChatGPT Plus در دسترس خواهد بود و توسعه دهندگان می توانند برای ساخت برنامه با آن ثبت نام کنند. OpenAI روز سه شنبه گفت که این ابزار “40 درصد بیشتر از GPT-3.5 در ارزیابی های داخلی ما پاسخ های واقعی می دهد.”

GPT-3 در سال 2020 منتشر شد و همراه با نسخه 3.5، برای ایجاد Dall-E و چت ربات ChatGPT، دو محصولی که تخیل عمومی را به خود جلب کردند و سایر شرکت‌های فناوری را به دنبال تهاجمی‌تر هوش مصنوعی تشویق کردند، استفاده شد. از آن زمان، وزوز درباره اینکه آیا مدل بعدی شایستگی بیشتری خواهد داشت و احتمالاً قادر به انجام وظایف اضافی خواهد بود، افزایش یافته است.

OpenAI گفت مورگان استنلی از GPT-4 برای سازماندهی داده ها استفاده می کند، در حالی که Stripe Inc، یک شرکت پرداخت الکترونیکی، در حال آزمایش است که آیا به مبارزه با تقلب کمک می کند یا خیر. مشتریان دیگر عبارتند از شرکت آموزش زبان Duolingo Inc.، آکادمی خان و دولت ایسلند.

در مصاحبه ای در ژانویه، سام آلتمن، مدیر عامل OpenAI تلاش کرد تا انتظارات را کنترل کند.

او گفت: «ماشین شایعه سازی GPT-4 چیز مضحکی است. “من نمی دانم این همه از کجا می آید. مردم دعا می کنند که ناامید شوند، و خواهند شد.» مدیر ارشد فناوری شرکت، میرا موراتی، در اوایل این ماه به شرکت فست گفت که «صدای کمتر خوب خواهد بود».

مطلب پیشنهادی:  هوش مصنوعی، احساسات واقعی. مردم به دنبال یک رابطه عاشقانه با ربات عالی هستند

GPT-4 چیزی است که مدل زبان بزرگ نامیده می‌شود، نوعی سیستم هوش مصنوعی که حجم وسیعی از نوشته‌ها را از سراسر اینترنت تجزیه و تحلیل می‌کند تا نحوه تولید متنی با صدای انسان را تعیین کند. این فناوری در ماه های اخیر باعث ایجاد هیجان و همچنین جنجال شده است. علاوه بر نگرانی در مورد استفاده از سیستم‌های تولید متن برای تقلب در تکالیف مدرسه، این امر می‌تواند سوگیری و اطلاعات نادرست را تداوم بخشد.

هنگامی که OpenAI در ابتدا GPT-2 را در سال 2019 منتشر کرد، به دلیل نگرانی در مورد استفاده مخرب، تصمیم گرفت تنها بخشی از مدل را عمومی کند. محققان خاطرنشان می کنند که الگوهای زبانی بزرگ گاهی اوقات می تواند از موضوع منحرف شود یا به گفتار نامناسب یا نژادپرستانه منحرف شود. آنها همچنین نگرانی هایی را در مورد انتشار کربن مرتبط با تمام قدرت محاسباتی مورد نیاز برای آموزش و اجرای این مدل های هوش مصنوعی مطرح کردند.

OpenAI گفت که شش ماه زمان صرف کرده است تا نرم افزار هوش مصنوعی خود را ایمن تر کند.

این شرکت در یک پست وبلاگی در روز سه شنبه با اشاره به مواردی مانند ارسال یک درخواست یا سوال طراحی شده برای تحریک نامطلوب گفت: “GPT-4 هنوز محدودیت های شناخته شده زیادی دارد که ما در تلاش هستیم تا آنها را برطرف کنیم، مانند سوگیری های اجتماعی، توهمات و درخواست های خصمانه.” عملکرد یا خرابی سیستم ما شفافیت، آموزش کاربران و سواد هوش مصنوعی گسترده تر را تشویق و تسهیل می کنیم زیرا جامعه از این مدل ها استقبال می کند. همچنین هدف ما گسترش فرصت‌ها برای افراد است تا در شکل‌دهی مدل‌های ما مشارکت کنند.»

مطلب پیشنهادی:  در دنیای جدید هوش مصنوعی، همان معامله قدیمی با حریم خصوصی داده های کاربر

این انتشار بخشی از سیل اعلامیه های هوش مصنوعی است که از سوی OpenAI و حامی مایکروسافت و همچنین رقبا در صنعت نوپا منتشر می شود. شرکت‌ها چت‌بات‌های جدید، جستجوی مبتنی بر هوش مصنوعی و راه‌های جدیدی را برای جاسازی فناوری در نرم‌افزار سازمانی طراحی‌شده برای فروشندگان و کارکنان اداری راه‌اندازی کرده‌اند.

آنتروپیک تحت حمایت گوگل، استارت آپی که توسط مدیران سابق OpenAI تأسیس شده است، اوایل سه شنبه از راه اندازی ربات چت کلود خود برای مشتریان تجاری خبر داد.

در همین حال، گوگل اعلام کرد که به مشتریان اجازه دسترسی به برخی از مدل‌های زبان خود را می‌دهد و مایکروسافت قرار است روز پنجشنبه درباره نحوه برنامه‌ریزی ارائه ویژگی‌های هوش مصنوعی برای نرم‌افزار آفیس خود صحبت کند.


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا