کامپیوتر

بهترین گزینه های ChatGPT (طبق ChatGPT)

ChatGPT به سرعت تبدیل به یکی از عزیزان هوش مصنوعی مولد شده است، اما به سختی تنها بازیکن در بازی است. علاوه بر تمام ابزارهای هوش مصنوعی دیگر که کارهایی مانند تولید تصویر را انجام می دهند، تعدادی رقیب مستقیم برای ChatGPT وجود دارد – یا من فکر می کردم.

چرا از ChatGPT در مورد آن سؤال نمی کنید؟ این دقیقاً همان کاری است که من برای دریافت این لیست انجام دادم، به امید اینکه گزینه‌هایی برای کسانی که با اعلامیه‌های «ظرفیت ناکافی» مواجه هستند یا دیگرانی که فقط می‌خواهند چیز جدیدی را امتحان کنند، پیدا کنم. همه آنها به اندازه ChatGPT در دسترس عموم نیستند، اما طبق گفته ChatGPT، اینها بهترین جایگزین ها هستند.

BERT توسط Google

BERT (نمایش رمزگذار دوطرفه از Transformers) یک مدل یادگیری ماشینی است که توسط Google توسعه یافته است. بسیاری از نتایج ChatGPT به پروژه‌های Google اشاره می‌کنند که بعداً در این لیست خواهید دید.

BERT به دلیل قابلیت‌های پردازش زبان طبیعی (NLP) مانند پاسخ‌گویی به سؤال و تحلیل احساسات شناخته شده است. این کتاب از BookCorpus و ویکی‌پدیا انگلیسی به‌عنوان مدل‌های مرجع برای پیش‌آموزش استفاده کرد و به‌ترتیب ۸۰۰ میلیون و ۲.۵ میلیارد کلمه را آموخت.

BERT برای اولین بار به عنوان یک پروژه تحقیقاتی منبع باز و مقاله دانشگاهی در اکتبر 2018 معرفی شد. از آن زمان این فناوری در جستجوی گوگل پیاده سازی شده است. ادبیات اولیه BERT آن را با ChatGPT OpenAI در نوامبر 2018 مقایسه کرد و اشاره کرد که فناوری Google عمیقاً دو طرفه است که به پیش‌بینی متن دریافتی کمک می‌کند. در همین حال، OpenAI GPT یک طرفه است و فقط می تواند به درخواست های پیچیده پاسخ دهد.

مینا از گوگل

مینا یک چت بات است که گوگل در ژانویه 2020 با قابلیت مکالمه به صورت انسانی معرفی کرد. نمونه‌هایی از ویژگی‌های آن عبارتند از مکالمات ساده که شامل جوک‌ها و جناس‌های جالبی می‌شود، مانند پیشنهاد مینا مبنی بر اینکه گاوها در دانشگاه هاروارد «علوم گاوداری» بخوانند.

نمونه چت ربات Google Meena.

به عنوان یک جایگزین مستقیم برای GPT-2 OpenAI، Meena توانایی پردازش 8.5 برابر بیشتر از رقیب خود در آن زمان را داشت. شبکه عصبی آن از 2.6 پارامتر تشکیل شده است و بر روی مکالمات عمومی در رسانه های اجتماعی آموزش داده شده است. Meena همچنین امتیاز سنجش حساسیت و میانگین ویژگی (SSA) 79 درصد را دریافت کرد که آن را به یکی از باهوش ترین چت ربات های زمان خود تبدیل کرد.

مطلب پیشنهادی:  چگونه مانیتورهای عمودی انباشته جریان کار من را متحول کردند

کد Meena در GitHub موجود است.

RoBERTa از فیس بوک

RoBERTa (رویکرد پیش‌آموزشی بهینه‌سازی قوی BERT) نسخه پیشرفته دیگری از BERT اصلی است که فیس‌بوک در جولای 2019 اعلام کرد.

فیس بوک این مدل NLP را با منبع داده بزرگتر به عنوان یک مدل قبل از آموزش ساخت. RoBERTa از CommonCrawl (CC-News) استفاده می کند که شامل 63 میلیون مقاله خبری انگلیسی است که بین سپتامبر 2016 و فوریه 2019 تولید شده است، به عنوان مجموعه داده 76 گیگابایتی خود. به گفته فیس بوک، در مقایسه، BERT اصلی از 16 گیگابایت داده بین مجموعه داده های ویکی پدیا انگلیسی و BookCorpus خود استفاده کرده است.

طبق یک مطالعه فیسبوک، RoBERTa به XLNet، BERT را در مجموعه‌ای از مجموعه داده‌های معیار شکست داد. برای به دست آوردن این نتایج، این شرکت نه تنها از یک منبع داده بزرگتر استفاده می کند، بلکه مدل خود را برای مدت زمان طولانی تری از قبل آموزش می دهد.

فیس بوک RoBERTa را در سپتامبر 2019 منبع باز کرد و کد آن در GitHub برای آزمایش جامعه در دسترس است.

VentureBeat همچنین GPT-2 را در میان سیستم های هوش مصنوعی در حال ظهور در این مدت ذکر کرد.

XLNet توسط گوگل

XLNET یک مدل زبان اتورگرسیو مبتنی بر ترانسفورماتور است که توسط تیمی از محققان در Google Brain و دانشگاه کارنگی ملون توسعه یافته است. این مدل اساساً یک BERT پیشرفته‌تر است و برای اولین بار در ژوئن 2019 ارائه شد. گروه دریافتند که XLNet حداقل 16٪ کارآمدتر از BERT اصلی است که در سال 2018 معرفی شد و در آزمایشی از 20 کار NLP بر BERT را شکست داد.

از آنجایی که XLNet و BERT از نشانه‌های «ماسک شده» برای پیش‌بینی متن پنهان استفاده می‌کنند، XLNet با سرعت بخشیدن به بخش پیش‌بینی فرآیند، کارایی را بهبود می‌بخشد. به عنوان مثال، آیشواریا سرینیواسان، دانشمند داده آمازون الکسا، توضیح داد که XLNet قبل از پیش‌بینی اینکه عبارت «یورک» نیز با آن واژه مرتبط است، توانست کلمه «جدید» را با عبارت «شهر است» شناسایی کند. در همین حال، BERT باید کلمات “New” و “York” را جداگانه شناسایی کند و سپس آنها را به عنوان مثال به اصطلاح “شهر است” متصل کند.

لازم به ذکر است که GPT و GPT-2 نیز در این توضیح دهنده 2019 به عنوان نمونه های دیگر از مدل های زبان اتورگرسیو ذکر شده اند.

کد XLNet و مدل های از پیش آموزش دیده در GitHub موجود است. این مدل در جامعه تحقیقاتی NLP به خوبی شناخته شده است.

DialoGPT از Microsoft Research

DialoGPT (Dialogue Generative Pre-trained Transformer) یک مدل زبان اتورگرسیو است که در نوامبر 2019 توسط Microsoft Research معرفی شد. با شباهت به GPT-2، این مدل برای ایجاد مکالمه انسانی از قبل آموزش داده شده بود. با این حال، منبع اصلی اطلاعات او 147 میلیون دیالوگ چند نوبتی بود که از تاپیک های Reddit جمع آوری شده بود.

مطلب پیشنهادی:  لپ تاپ Lenovo Yoga 9i 2-in-1 نسل سیزدهم اینتل Core i7 در هند معرفی شد: قیمت، مشخصات
نمونه های تولید چند پاسی DiabloGPT.

Cobus Grayling، Chief Evangelist HumanFirst به موفقیت خود در استقرار DialoGPT در سرویس پیام رسان تلگرام اشاره کرد تا مدل چت بات را زنده کند. او افزود که استفاده از خدمات وب آمازون و آمازون SageMaker می تواند به تنظیم دقیق کد کمک کند.

کد DialoGPT در GitHub موجود است.

ALBERT توسط گوگل

ALBERT (A Lite BERT) یک نسخه کوتاه شده از BERT اصلی است و توسط گوگل در دسامبر 2019 توسعه یافته است.

با ALBERT، گوگل تعداد پارامترهای مجاز در مدل را با معرفی پارامترهای “جاسازی لایه پنهان” محدود کرد.

عملکرد ماشین در چالش RACE (SAT مانند Reading Comprehension) از طرف Google

این نه تنها در مدل BERT، بلکه در XLNet و RoBERTa نیز بهبود یافته است، زیرا ALBERT می‌تواند در همان مجموعه اطلاعات بزرگ‌تر مورد استفاده برای دو مدل جدیدتر آموزش ببیند، در حالی که به پارامترهای کوچک‌تر پایبند باشد. اساسا، ALBERT فقط با پارامترهای لازم برای عملکردهای خود کار می کند، که عملکرد و دقت را افزایش می دهد. گوگل بیان می‌کند که دریافته است که ALBERT در 12 معیار NLP، از جمله معیار درک مطلب شبیه SAT، بهتر از BERT عمل می‌کند.

اگرچه با نام ذکر نشده است، GPT در تصاویر ALBERT در وبلاگ Google Research گنجانده شده است.

گوگل ALBERT را به عنوان منبع باز در ژانویه 2020 منتشر کرد و در بالای TensorFlow گوگل پیاده سازی شد. کد در GitHub موجود است.

T5 توسط گوگل

T5 (Text-to-Text Transfer Transformer) یک مدل NLP است که توسط گوگل در سال 2019 معرفی شد که از مدل های قبلی متعددی از جمله GPT، BERT، XLNet، RoBERTa و ALBERT و غیره وام گرفته است. یک مجموعه داده جدید و منحصربه‌فرد به نام Colossal Clean Crawled Corpus (C4) اضافه می‌کند که به ترانسفورماتور اجازه می‌دهد تا با کیفیت بالاتر و نتایج متنی‌تری از مجموعه داده‌های دیگر نسبت به تکه‌های وب Common Crawl که برای XLNet استفاده می‌شود، تولید کند.
آموزش پیشرفته تبدیل متن به متن Google T5.
پیش تولید T5 منجر به ایجاد برنامه های چت بات از جمله InferKit Talk To Transformer و بازی AI Dungeon شد. مولدهای متن شبیه ChatGPT هستند زیرا به شما امکان می دهند مکالمات واقعی را بر اساس آنچه که هوش مصنوعی پس از درخواست ها یا پرس و جوهای اولیه شما ایجاد می کند، ایجاد کنید.
کد T5 در GitHub موجود است.

CTRL از Salesforce

CTRL (لایه استدلال و اعتماد محاسباتی) Salesforce یکی از بزرگترین مدل‌های زبانی بود که در سپتامبر ۲۰۱۹ توسط Salesforce معرفی شد. مدل زبان 1.6 میلیارد پارامتری را می توان برای تجزیه و تحلیل تکه های بزرگ متن به طور همزمان استفاده کرد، مانند موارد مرتبط با صفحات وب. برخی از کاربردهای عملی بالقوه عبارتند از جفت شدن با نظرات، رتبه‌بندی‌ها و اسناد.
Salesforce CTRL منبع تخصیص مثال.
الگوی زبان CTRL می تواند هدف یک پرس و جو خاص را به نشانه گذاری متمایز کند. Salesforce اشاره کرد که این مدل می تواند تفاوت بین “گرمایش جهانی یک دروغ است” را نشان دهد. به عنوان یک نظر نامطلوب و “گرمایش جهانی یک دروغ است” به عنوان یک تئوری توطئه به دلیل اختلاف بازه زمانی در عبارات، و برای هر کدام موضوعات مربوطه را در ردیت جمع آوری کنید.
CTRL به 140 گیگابایت داده برای پیش‌آموزش خود از منابعی مانند ویکی‌پدیا، پروژه گوتنبرگ، بررسی‌های آمازون و ردیت ارجاع می‌دهد. همچنین به تعدادی از منابع بین المللی برای اخبار، اطلاعات و چیزهای بی اهمیت پیوند می دهد.
کد CTRL در GitHub موجود است.

GShard از گوگل

GShard یک مدل غول پیکر ترجمه زبان است که گوگل در ژوئن 2020 برای مقیاس شبکه های عصبی معرفی کرد. این مدل شامل 600 میلیارد پارامتر است که امکان آموزش مجموعه داده های بزرگ را به طور همزمان فراهم می کند. GShard به ویژه در ترجمه زبان ماهر است و برای ترجمه 100 زبان به انگلیسی در چهار روز آموزش دیده است.

مطلب پیشنهادی:  Dell XPS 16، XPS 14، Alienware M16 R2 و Inspiron 14 Plus با پردازنده های Intel Core Ultra در هند به روز شدند.

Blender توسط Facebook AI Research

Blender یک چت بات منبع باز است که در آوریل 2020 توسط Facebook AI Research معرفی شد. این ربات چت در مقایسه با مدل‌های رقیب، مهارت‌های مکالمه‌ای را بهبود می‌بخشد، با توانایی ارائه نکات گفتگوی جذاب، گوش دادن و نشان دادن درک نظرات شریک خود، و نشان دادن همدلی و شخصیت.

مثال چت بات بلندر.

Blender با چت بات Google Meena مقایسه شده است، که به نوبه خود با GPT-2 OpenAI مقایسه شده است.

کد Blender در Parl.ai موجود است.

پگاسوس توسط گوگل

Pegasus یک مدل پردازش زبان طبیعی است که توسط گوگل در دسامبر 2019 معرفی شد. Pegasus را می توان برای تولید خلاصه آموزش داد و مانند مدل های دیگر مانند BERT، GPT-2، RoBERTa، XLNet، ALBERT و T5، می تواند به خوبی تنظیم شود. وظایف خاص. Pegasus برای اثربخشی آن در خلاصه کردن اخبار، علم، داستان‌ها، دستورالعمل‌ها، ایمیل‌ها، پتنت‌ها و لوایح قانونی در مقایسه با انسان‌ها آزمایش شده است.

NLP PEGASUS از نظر کیفیت تعمیم با انسان مقایسه می شود.

کد Pegasus در GitHub موجود است.

توصیه های سردبیران






نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا