اپلیکیشن Anthropic iPhone AI طرح تجاری خود را برای رقابت با OpenAI اعلام کرد
تصاویر سوپا | راکت | گتی ایماژ
Anthropic روز چهارشنبه اولین پیشنهاد سازمانی و یک برنامه رایگان آیفون خود را اعلام کرد.
استارت آپ هوش مصنوعی مولد، شرکتی است که در پشت کلود قرار دارد، یکی از ربات های چت که مانند ChatGPT و OpenAI گوگلGemini، در طول سال گذشته در محبوبیت منفجر شده است. Anthropic، که توسط محققان سابق OpenAI تأسیس شده است، دارای حامیانی از جمله Google، نیروی فروش و آمازونو در سال گذشته پنج قرارداد مالی مختلف به ارزش 7.3 میلیارد دلار بسته شد.
به گفته دانیلا آمودی، یکی از بنیانگذاران آنتروپیک، طرح جدید این کسب و کار، به نام تیم، در چند فصل گذشته در حال توسعه بوده و شامل آزمایش بتا با بین 30 تا 50 مشتری در صنایعی مانند فناوری، خدمات مالی، خدمات حقوقی و مراقبت های بهداشتی است. سیانبیسی در مصاحبهای اضافه کرد که ایده این سرویس تا حدی از بسیاری از همان مشتریانی که خواهان یک محصول ویژه سازمانی هستند، زاده شد.
آمودی گفت: «بسیاری از چیزهایی که از کسب و کار شرکتی شنیده ایم این است که مردم در حال حاضر از کلود در دفتر استفاده می کنند.
طرح تیم دسترسی به سه مدل جدید کلود Anthropic را با افزایش محدودیتهای استفاده، ابزارهای مدیریتی و مدیریت صورتحساب، و یک “پنجره زمینه” طولانیتر ارائه میدهد به این معنی که مشاغل میتوانند “مکالمات چند مرحلهای” داشته باشند و اسناد طولانی مانند مقالات تحقیقاتی و حقوقی را بارگذاری کنند. به گفته آنتروپیک، قراردادهای پردازش. سایر ویژگیهای آینده عبارتند از «استناد از منابع قابل اعتماد برای تأیید ادعاهای ایجاد شده توسط هوش مصنوعی»، طبق این انتشار.
هزینه پیشنهادی تیم برای هر کاربر 30 دلار در ماه در صورت پرداخت ماهیانه است. حداقل به پنج کاربر نیاز دارد.
برنامه Anthropic برای آیفون
اولین برنامه iOS Anthropic برای همه برنامهها برای کاربران رایگان است و از چهارشنبه نیز در دسترس است. همگام سازی با چت های وب و امکان آپلود عکس ها و فایل ها از گوشی هوشمند را فراهم می کند.
برنامه هایی برای راه اندازی یک برنامه اندروید نیز وجود دارد. آمودی به CNBC گفت: “ما در واقع اولین مهندس اندروید خود را استخدام کردیم، بنابراین به طور فعال روی برنامه اندروید کار می کنیم.”
اخبار مربوط به طرح تیم و اپلیکیشن iOS بیش از یک ماه پس از معرفی آنتروپیک، Claude 3 منتشر شد، مجموعهای از مدلهای هوش مصنوعی که گفته میشود سریعترین و قدرتمندترین مدلهای تاکنون هستند. سازهای جدید Claude 3 Opus، Sonnet و Haiku نام دارند.
این شرکت گفت که تواناترین مدل جدید، Claude 3 Opus، از GPT-4 OpenAI و Gemini Ultra گوگل در تستهای معیار صنعتی مانند دانش کارشناسی، استدلال سطح بالاتر و ریاضیات پایه بهتر عمل کرد. همچنین این اولین باری است که Anthropic پشتیبانی چندوجهی ارائه میکند: کاربران میتوانند عکسها، نمودارها، اسناد و انواع دیگر دادههای بدون ساختار را برای تجزیه و تحلیل و پاسخ آپلود کنند.
مدل های دیگر، سونت و هایکو، جمع و جورتر و ارزان تر از Opus هستند. این شرکت از بیان مدت زمان آموزش کلود 3 یا هزینه آن خودداری کرد، اما گفت شرکت هایی مانند Airtable و آسانا به A/B کمک کرد تا مدل ها را آزمایش کند. در روز چهارشنبه، Anthropic تأیید کرد که سایر مشتریان فعلی که از Claude استفاده می کنند عبارتند از Pfizer، Asana، Zoom، Perplexity AI، Bridgewater Associates و سایرین.
بر اساس گزارش PitchBook، حوزه هوش مصنوعی مولد سال گذشته با سرمایهگذاری 29.1 میلیارد دلاری در نزدیک به 700 معامله در سال 2023 منفجر شد که بیش از 260 درصد افزایش ارزش معاملات را نسبت به سال قبل نشان میدهد. این عبارت تبدیل به پرهیاهوترین عبارت در گفتگوهای درآمد شرکتی فصل به فصل شده است. دانشمندان و متخصصان اخلاق نگرانی قابل توجهی را در مورد تمایل این فناوری به گسترش تعصب ابراز کرده اند، اما به سرعت راه خود را به مدارس، سفرهای آنلاین، صنعت پزشکی، تبلیغات آنلاین و موارد دیگر باز کرده است.
سال گذشته تقریباً در همین زمان، Anthropic دورهای مالی سری A و B را تکمیل کرده بود، اما تنها نسخه اول چت بات خود را بدون دسترسی کاربر یا هیاهوی زیاد منتشر کرده بود. اکنون یکی از داغترین استارتآپهای هوش مصنوعی است، با محصولی که به طور مستقیم با ChatGPT در هر دو دنیای سازمانی و مصرفکننده رقابت میکند.
کلود 3 می تواند تا حدود 150000 کلمه یا یک کتاب بزرگ در مورد دامنه طول موبی دیک یا هری پاتر و یادگاران مرگ خلاصه کند. نسخه قبلی آن تنها می توانست 75000 کلمه را خلاصه کند. کاربران می توانند مجموعه داده های بزرگی را وارد کرده و خلاصه ها را در قالب یادداشت، نامه یا داستان درخواست کنند. از طرف دیگر، ChatGPT می تواند حدود 3000 کلمه را مدیریت کند.
در ژانویه، OpenAI به دلیل پیشنهاد سازمانی خود مورد انتقاد قرار گرفت زیرا بی سر و صدا ممنوعیت استفاده نظامی از ChatGPT و سایر ابزارهای هوش مصنوعی آن را لغو کرد. سیاستهای آن همچنان بیان میکند که کاربران نباید «از خدمات ما برای آسیب رساندن به خود یا دیگران» از جمله برای «توسعه یا استفاده از سلاحها» استفاده کنند. قبل از این تغییر، صفحه سیاست OpenAI تصریح کرد که این شرکت اجازه استفاده از مدلهای خود را برای «فعالیتهایی که خطر آسیب فیزیکی بالایی دارد، از جمله: توسعه سلاحها را نمیداد. [and] ارتش و جنگ.
موضع آنتروپیک در مورد استفاده نظامی کلود مشابه سیاست به روز شده OpenAI است.
آمودی به سیانبیسی گفت: «روشی که ما امروز خط میکشیم این است که بر اساس صنعت یا بر اساس تجارت تبعیض قائل نمیشویم، اما یک سیاست استفاده قابل قبول داریم که میگوید برای چه چیزی میتوانید از کلود استفاده کنید یا نمیتوانید استفاده کنید.» البته هر کسب و کاری در دنیا که در کشورهای تحریم شده نباشد، [and] نیازهای اساسی کسب و کار را برآورده می کند، می تواند از کلود برای انواع برنامه های پشتیبان و مواردی از این قبیل استفاده کند، اما ما دستورالعمل های بسیار دقیقی داریم مبنی بر اینکه کلود نباید برای سلاح استفاده شود، اساساً هر چیزی که می تواند باعث خشونت یا آسیب به مردم شود.”