5 چیز که باید در مورد رقیب متا ChatGPT، پلتفرم هوش مصنوعی LLaMA بدانید
شرکت مادر فیس بوک متا ممکن است دیر به جشن هوش مصنوعی رفته باشد، اما هنوز هم توانسته یک ورود تماشایی داشته باشد. دیروز عصر، این شرکت اعلام کرد که پلتفرم زبان بزرگ آن LLaMA منبع باز و کاملا رایگان برای اهداف تحقیقاتی و تجاری خواهد بود و رویکردی مشابه با ChatGPT OpenAI در پیش خواهد گرفت. این حرکت در رویداد Inspire مایکروسافت اعلام شد، جایی که متا همکاری خود را با مایکروسافت و پشتیبانی از محصولاتی مانند Azure و Windows را گسترش داد. و این 5 نکته مهمی است که باید در مورد پلتفرم هوش مصنوعی متا بدانید.
1. LLaMA چیست؟
در ماه فوریه، متا پلتفرم LLaMA (مدل زبان بزرگ مدل متا AI) خود را معرفی کرد، یک مدل زبان بزرگ که بر اساس 65 میلیارد پارامتر ساخته شده است. متا در طی اعلامیه خود فاش کرد که این پلتفرم برای کمک به محققان در پیشبرد کار خود در این زیر شاخه از هوش مصنوعی مولد طراحی شده است. با اذعان به آن به عنوان یک مدل پایه کوچکتر، این شرکت ادعا می کند که برای بسیاری از محققانی که سعی در درک هوش مصنوعی مولد دارند، مدل های کوچکتر مطلوب تر هستند زیرا “به قدرت محاسباتی و منابع بسیار کمتری برای آزمایش رویکردهای جدید، اعتبارسنجی کار دیگران و کاوش کاربردی جدید نیاز دارد. موارد».
این شرکت اخیراً پلتفرم LLaMA 2 خود را راه اندازی کرده است.
2. چرا متا و مایکروسافت برای LLaMA شریک می شوند
در رویداد Inspire Meta، مایکروسافت همکاری خود را با سازنده ویندوز اعلام کرد. به عنوان بخشی از این همکاری، متا قابلیت های پلتفرم LLaMA 2 خود را به Azure و Windows مایکروسافت گسترش خواهد داد. مایکروسافت در اطلاعیهای گفت: «Llama 2 برای این طراحی شده است که توسعهدهندگان و سازمانها را قادر میسازد تا ابزارها و تجربیات مولد مبتنی بر هوش مصنوعی را بسازند… ما به توسعهدهندگان در انواع مدلهایی که بر اساس آنها ساخته میشوند، با پشتیبانی از مدلهای باز و مرزی، انتخاب میکنیم. برای اولین بار نسخه جدید Llama 2 خود را برای مشتریان تجاری عرضه می کنند که شریک منتخب متا هستند.
3. این مشارکت دقیقاً چه معنایی برای توسعه دهندگانی که بر روی Azure و Windows می سازند، خواهد بود
مایکروسافت توضیح داد که LLaMA 2 بخشی از کاتالوگ مدل های هوش مصنوعی Azure خواهد بود. این مدل در پیشنمایش عمومی است و به توسعهدهندگان این امکان را میدهد که نیاز به مدیریت تمام وابستگیهای زیرساخت را هنگام استقرار Llama 2 از بین ببرند. این مدل پشتیبانی کلید در دست را برای تنظیم دقیق و ارزیابی مدل، از جمله تکنیکهای بهینهسازی قدرتمند مانند DeepSpeed و ONNX Runtime ارائه میکند. وبلاگ اشاره کرد که می تواند سرعت تنظیم دقیق مدل را تا حد زیادی افزایش دهد.
4. چرا LLaMA اکنون منبع باز و رایگان برای دسترسی است
متا فاش کرد که پلتفرم LLaMA منبع باز و رایگان برای تحقیقات و استفاده تجاری خواهد بود. متا استدلال می کند که دلیل این امر منفعت متقابل است. در حالی که کاربران میتوانند به ابزار هوش مصنوعی دسترسی داشته باشند و از آن استفاده کنند، این ابزار LLM را پایدارتر کرده و به آن کمک میکند تا به سمت جلو حرکت کند.
متا با تاکید بر دومی اظهار داشت: «باز کردن دسترسی به مدلهای هوش مصنوعی امروزی به این معنی است که نسلی از توسعهدهندگان و محققان میتوانند آنها را آزمایش کنند، مشکلات را بهسرعت به عنوان یک جامعه شناسایی و حل کنند. با مشاهده نحوه استفاده از این ابزارها توسط دیگران، تیم های خودمان می توانند از آنها یاد بگیرند، این ابزارها را بهبود بخشند و آسیب پذیری ها را برطرف کنند.”
5. تمرکز LLaMA بر شفافیت
این شرکت گفت که متا در حال انجام تعدادی گام برای اطمینان از اینکه LLaMA همچنان یک پلتفرم مسئول با تمرکز بر شفافیت و دسترسی است، انجام می دهد. برخی از تمرینهایی که این شرکت انجام میدهد شامل تمرینهای Red-Teaming، به اشتراک گذاشتن طرحهای شفافیت مدل در مقاله تحقیقاتی خود، اشتراکگذاری راهنمای کاربر و سیاست استفاده منصفانه برای مهار هرگونه رفتار مضری است که ممکن است در نتیجه استفاده از هوش مصنوعی ایجاد شود.