تکنولوژی

منبع درآمد Reddit Pipes فراتر از تبلیغات: معاملات سودآور هوش مصنوعی

این شرکت روز پنجشنبه در بایگانی عرضه اولیه عمومی مورد انتظار خود گفت که هوش مصنوعی به بخش مهمی از تجارت Reddit Inc تبدیل خواهد شد – بهره برداری از جریان درآمدی که می تواند هم سودآور و هم بحث برانگیز باشد.

ردیت مستقر در سانفرانسیسکو، پلتفرمی که از مکالمات در مورد هزاران موضوع مختلف پشتیبانی می کند، بیشترین درآمد خود را از طریق فروش تبلیغاتی که در کنار محتوای اجتماعی ظاهر می شوند به دست می آورد. در پرونده خود، این شرکت 19 ساله خط دیگری از تجارت اضافی را مشخص کرد: فروش آن محتوا به شرکت هایی که چت بات هایی مشابه ChatGPT می سازند.

شرکت های بزرگ فناوری مانند گوگل و OpenAI مایلند پول زیادی برای محتوا بپردازند تا مدل های زبان بزرگ خود را بهبود بخشند، نرم افزار هوش مصنوعی که با استفاده از داده های زیادی ساخته شده است. روز پنجشنبه، علاوه بر پرونده عمومی، Reddit قراردادی را با شرکت آلفابت گوگل اعلام کرد که به محصولات هوش مصنوعی گوگل اجازه می دهد از داده های Reddit برای بهبود فناوری خود استفاده کنند. بلومبرگ قبلاً از وجود قرارداد 60 میلیون دلاری هوش مصنوعی خبر داده بود.

استیو هافمن، یکی از بنیانگذاران و مدیرعامل Reddit در این پرونده نوشت: «آرشیو وسیع و بی‌نظیر Reddit از مکالمات انسانی واقعی، به‌موقع و مرتبط در مورد هر موضوعی، مجموعه داده‌های ارزشمندی برای اهداف مختلف از جمله جستجو، آموزش هوش مصنوعی و تحقیق است. که چنین معاملاتی را “فرصتی نوظهور” برای شرکت توصیف می کند.

ردیت در پرونده S-1 خود گفت که در ماه ژانویه قراردادهای مجوزی به مبلغ 203 میلیون دلار را با شرایط بین دو تا سه سال منعقد کرده است. این شرکت همچنین گفت که انتظار دارد در سال جاری حداقل 66.4 میلیون دلار از چنین معاملاتی به دست بیاورد.

مطلب پیشنهادی:  مدارگرد مریخ Mangalyaan مرده است و به همین دلیل است که ما از دیدن آن غمگین هستیم

شرکت‌های هوش مصنوعی برای ارائه محتوای بیشتر به مدل‌های خود قراردادهایی برای صدور مجوز وارد می‌کنند. در ماه دسامبر، OpenAI قراردادی به ارزش ده ها میلیون یورو با Axel Springer SE امضا کرد که مالک Politico و Business Insider است. چنین قراردادهایی پرمخاطب هستند زیرا مدل‌های هوش مصنوعی اغلب بر روی اطلاعات دارای حق چاپ آموزش داده می‌شوند و ادعاهای مالکیت را مخدوش می‌کنند. به عنوان مثال، نیویورک تایمز در ماه دسامبر از OpenAI به اتهام نقض حق چاپ شکایت کرد.

آموزش مدل‌های هوش مصنوعی بر روی داده‌های تولید شده توسط کاربر – نوعی که Reddit میزبانی می‌کند – نیز می‌تواند خطراتی را به همراه داشته باشد. محققان هوش مصنوعی می گویند محتوا از دقت کمتری نسبت به مقالات خبری برخوردار است. Giada Pistilli، کارشناس ارشد اخلاق در Hugging Face که مدل‌های هوش مصنوعی را می‌سازد و میزبانی می‌کند، Reddit «در هسته‌اش انجمنی است که مردم هر چیزی را در آن پست می‌کنند». می توانید تئوری های توطئه و انواع چیزهای مشکل ساز را پیدا کنید.

اوس کیز، کاندیدای دکترا در دانشگاه واشنگتن که در زمینه هوش مصنوعی و اخلاق داده ها مطالعه می کند، گفت Reddit می تواند محتوای مشکل ساز را در سیستم های هوش مصنوعی معرفی کند.

کیز گفت: «ما قبلاً دیده‌ایم که مدل‌ها تمایل دارند حقایقی را که وجود ندارند توهم کنند. آنها به یک مثال قابل توجه در سال 2013 اشاره کردند، زمانی که کاربران Reddit به اشتباه فردی را به مظنون بودن بمب گذاری ماراتن بوستون متهم کردند. “چیزهایی که در ردیت ظاهر می شوند حقایق تایید شده نیستند.”

مطلب پیشنهادی:  افت شدید قیمت اپل، آمازون در مقابل آیفون، آی پد. پرونده به دادگاه کشیده می شود

Reddit گفت که وقتی شرکا از API داده‌های آن استفاده می‌کنند، باید نمایش محتوای حذف شده از سایت را متوقف کنند. این شرکت اضافه کرد که شرکت‌های هوش مصنوعی قبلاً از Reddit برای آموزش مدل‌ها بدون پرداخت هزینه استفاده کرده‌اند و سازمان‌دهی معاملات رسمی به اجرای اقداماتی مانند الزام حذف محتوایی که به دلیل نقض خط‌مشی حذف شده است، کمک می‌کند.

Reddit قبلاً به دلیل مدیریت محتوای سمی و نفرت‌انگیز ارسال شده توسط کاربرانش و عمدتاً توسط داوطلبان بدون مزد تعدیل شده بود. در سال 2020، حدود 15 سال پس از تأسیس سایت، Reddit ممنوعیت سخنان مشوق تنفر را اجرا کرد. وقتی صحبت از تعدیل محتوای مشکل ساز می شود، همیشه مشخص نیست که خط کجاست. به عنوان مثال، در سال 2021، این شرکت اعلام کرد که از زیرمجموعه هایی که اطلاعات نادرست مربوط به کووید-19 را منتشر می کنند، صرف نظر می کند. چند روز بعد، پس از اعتراض بسیاری از کاربران خود، Reddit انجمن مورد بحث را ممنوع کرد و گفت که قوانین دیگر را نقض می کند.

این شرکت می‌گوید که علاوه بر مدیران خود، تیم‌های ایمنی داخلی نیز دارد که به اجرای سیاست‌های خود از طریق اتوماسیون و بازبینی انسانی اختصاص داده شده‌اند.

پیستیلی گفت که اگر مدل‌های هوش مصنوعی محتوای نادرست را جذب کنند، شرکت‌ها می‌توانند بعد از آن سعی کنند آن را پاک کنند، اما این فرآیند می‌تواند دشوار باشد. “این تلاش و کار بسیار است. تمرین بهتر این است که اطلاعات خود را از قبل پاک کنید. متاسفانه مردم کمیت را بر کیفیت ترجیح می دهند.

مطلب پیشنهادی:  FTX Wipeout جدیدترین آزمایش اعصاب برای سازندگان قوانین رمزنگاری آسیا است

هنوز خیلی زود است که بگوییم چگونه، اگر اصلا، جامعه غیرمعمول کاربران ردیت به فشار مجوز پاسخ خواهند داد. سال گذشته، هزاران subreddit به تصمیم این شرکت برای افزایش قیمت برای توسعه دهندگان برنامه های شخص ثالث اعتراض کردند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا