سایر زبان ها

صفحه نخست

سیاسی

بین‌الملل

ورزشی

اجتماعی

اقتصادی

فرهنگی هنری

علمی پزشکی

فیلم و صوت

عکس

استان ها

شهروند خبرنگار

وب‌گردی

سایر بخش‌ها

طرح فریب در شبکه‌های اجتماعی / فیسبوک و اینستاگرام چگونه باعث دیده و محبوب شدن یک محتوا می‌شوند؟

هوش مصنوعی در شبکه‌های اجتماعی مانند اینستاگرام و فیسبوک با پیروی از فرآیند‌هایی باعث می‌شود محتوایی بسیار دیده و محبوب شود.

به گزارش گروه وبگردی باشگاه خبرنگاران جوان،  فرانسیس هاوگن از کارمندان سابق فیسبوک، در ۱۳ مهرماه سال جاری، در مجلس سنای آمریکا شهادت داد که شبکه‌های اجتماعی این شرکت «به کودکان آسیب می‌رسانند، تفرقه ایجاد کرده و دموکراسی را تضعیف می‌کنند.» هاوگن منبع اصلی افشاگری وال استریت ژورنال در مورد این شرکت بود. او الگوریتم‌های فیسبوک را خطرناک خواند و گفت مدیران فیسبوک از این خطرات آگاه هستند، اما منافع خود را بر مصالح عمومی جامعه ترجیح می‌دهند. این کارمند سابق فیسبوک از کنگره آمریکا خواست تا این شرکت را مهار کند. اما به‌راستی واقعیت چیست؟


بیشتربخوانید


پلتفرم‌های رسانه‌های اجتماعی برای تصمیم‌گیری در مورد محتوایی که در این شبکه‌ها می‌بینید به رفتار افراد متکی هستند. به طور خاص، این پلتفرم‌ها به‌دنبال محتوایی هستند که مردم از طریق لایک کردن، کامنت گذاشتن و به اشتراک گذاشتن به آن‌ها پاسخ می‌دهند یا درواقع برای‌شان جذاب هستند. مزارع ترول یا همان سازمان‌هایی که محتوای تحریک‌آمیز منتشر می‌کنند، با کپی کردن محتوا‌های با جذابیت بالا و ارسال آن‌ها به‌عنوان مطالب خودشان، از این محتوا‌ها برای جذب مخاطب زیاد بهره‌برداری می‌کنند. هرچند براساس مطالعات صورت‌گرفته در مورد شیوه‌های تعامل مردم با استفاده از فناوری، منطق استفاده از خرد جمعی در این الگوریتم‌ها قابل درک است، اما نحوه عملکرد شرکت‌های مالک شبکه‌های اجتماعی عملا دارای اشکلات زیادی است.

 از شیر‌های ساوانا  تا   لایک‌ها
در مفهوم خرد جمعی، فرض بر این است که راهنما قراردادن سیگنال‌های منتقل شده از عملکردها، نظرات و اولویت‌بندی‌های دیگران، به تصمیم‌گیری‌های درست منجر می‌شود. برای مثال، پیش‌بینی‌های جمعی به طور معمول دقیق‌تر از پیش‌بینی‌های فردی هستند. بر همین اساس، از هوش جمعی برای پیش‌بینی در زمینه‌هایی همچون بازار‌های مالی، ورزش، انتخابات و حتی شیوع بیماری استفاده می‌شود. در طول میلیون‌ها سال تکامل، این اصول در مغز انسان به‌عنوان سوگیری‌ها یا خطا‌های شناختی-که با نام‌هایی همچون سوگیری خطای تمرکز و اعتماد بر اطلاعات در دسترس، سوگیری مواجهه صِرف و سوگیری همرنگ شدن شناخته می‌شوند- کدگذاری شده‌اند. برای مثال اگر همه اطرافیان شما شروع به دویدن کنند، شما نیز باید این کار را بکنید؛ شاید کسی دیده باشد که یک شیر در حال نزدیک شدن است و به همین دلیل شروع به دویدن کرده است؛ بنابراین دویدن می‌تواند زندگی شما را نجات دهد.

 
شاید در آن لحظه علت دویدن‌تان را ندانید اما عاقلانه است که پرسیدن این سوال را به بعد موکول کنید. مغز شما سرنخ‌هایی از محیط - از جمله همسالان‌تان - دریافت می‌کند و از قوانین ساده‌ای همچون «با برنده همراه شو»، «اکثریت را دنبال کن» یا «هر کاری که همسایه‌ات می‌کند را بکن» برای تبدیل‌کردن سریع این سیگنال‌ها به تصمیم استفاده می‌کند. این قوانین در شرایط معمولی به‌طور قابل ملاحظه‌ای موثر واقع می‌شود، زیرا بر مفروضات درست استوار هستند. برای مثال، فرض بر این است که مردم اغلب منطقی عمل می‌کنند؛ بعید است تعداد زیادی از مردم اشتباه کنند؛ گذشته آینده را پیش‌بینی می‌کند و غیره.
 
فناوری این امکان را برای مردم فراهم می‌کند که به سیگنال‌های تعداد بسیار بیشتری از افراد دیگر، که معمولا آنها را نمی‌شناسند، دسترسی پیدا کنند. برنامه‌های کاربردی هوش مصنوعی از این سیگنال‌های محبوبیت یا سیگنال‌های «جذابیت»، از انتخاب نتایج موتورهای جست‌وجو گرفته تا موسیقی‌ها و فیلم‌ها توصیه شده، و از درخواست‌های دوستی تا رتبه‌بندی پست‌ها در خبرهای زنده، استفاده می‌کنند.
 
 هر وایرالی   لزوما ارزشمند نیست
نتایج تحقیقات نشان می‌دهد تقریبا همه پلتفرم‌های فناوری وب، مانند شبکه‌های اجتماعی و سیستم‌های توصیه‌گر خبر، دارای «سوگیری محبوبیت» قوی هستند. هنگامی که برنامه‌های کاربردی به جای استفاده از نتایج جستارهای موتورهای جست‌وجو از سرنخ‌هایی مانند جذابیت استفاده می‌کنند، سوگیری محبوبیت می‌تواند منجر به پیامدهای زیانبار ناخواسته‌ای شود. شبکه‌های اجتماعی مانند فیسبوک، اینستاگرام، توییتر، یوتیوب و تیک‌تاک برای رتبه‌بندی و توصیه محتوا تا حد زیادی به الگوریتم‌های هوش مصنوعی وابسته هستند. این الگوریتم‌ها چیزهایی را که شما لایک می‌کنید، کامنت‌های شما و آنچه را که به اشتراک می‌گذارید - به عبارت دیگر، محتواهایی که برای‌تان جذاب هستند- را به‌عنوان درونداد در نظر می‌گیرند. هدف الگوریتم‌ها این است که با پیداکردن چیزهایی که مردم آنها را دوست دارند، جذابیت محتوا را به حداکثر برسانند و محتواهای جذاب را در صدر مطالب خود قرار دهند.
 
این کار در ظاهر، منطقی به نظر می‌رسد. اگر مردم اخبار معتبر، نظرات کارشناسان و فیلم‌های سرگرم‌کننده را دوست داشته باشند، الگوریتم‌ها باید این محتواهای با کیفیت بالا را شناسایی کنند. خرد جمعی در اینجا یک فرض کلیدی را مطرح می‌کند: توصیه به چیزهایی که محبوب هستند، به بیشتر دیده شدن محتوای باکیفیت بالا کمک می‌کند. این فرض، با مطالعه الگوریتمی که محتواها را با استفاده از ترکیبی از کیفیت و محبوبیت رتبه‌بندی می‌کند مورد بررسی قرار گرفت. نتیجه این بررسی نشان داد به طور کلی، سوگیری محبوبیت، بیشتر باعث کاهش کیفیت کلی محتوا می‌شود. دلیلش این است که وقتی افراد کمی در معرض یک ایده قرار می‌گیرند، جذاب بودن، نمی‌تواند شاخص قابل اعتمادی برای تعیین سطح کیفیت باشد. در چنین مواردی جذابیت، سیگنال‌های پر سر و صدایی تولید می‌کند و کار الگوریتم، تقویت این فضای اولیه است. هنگامی که محبوبیت یک محصول با کیفیت پایین به اندازه کافی بالا رفت، تقویت آن همچنان ادامه پیدا می‌کند.
 
اما الگوریتم‌ها تنها چیزی نیستند که تحت‌تأثیر سوگیری جذابیت قرار می‌گیرند- این سوگیری می‌تواند افراد را نیز تحت‌تأثیر قرار دهد. شواهد نشان می‌دهد اطلاعات از طریق سوگیری «سرایت» منتقل می‌شود؛ به این معنی که هر چقدر افراد بیشتری در معرض یک ایده آنلاین قرار بگیرند، احتمال پذیرش و تکرار اشتراک‌گذاری آنها بیشتر می‌شود. وقتی رسانه‌های اجتماعی به مردم می‌گویند یک محتوا وایرال می‌شود، سوگیری‌های شناختی افراد، شروع به کار کرده و تمایلی مقاومت‌ناپذیر نسبت به توجه به این محتوا و اشتراک‌گذاری آن ایجاد می‌کند.
 
پایین آوردن سطح جذابیت
حال سؤال این است که چه باید کرد؟ پلتفرم‌های فناوری معمولا در حالت دفاعی قرار دارند. اما در دوره‌های زمانی خاصی مانند زمان انتخابات، با حذف حساب‌های جعلی و اطلاعات نادرست زیانبار، تهاجمی‌تر می‌شوند. با این حال این تلاش‌ها می‌تواند شبیه یک بازی باشد. یک روش پیشگیرانه متفاوت، افزودن اصطکاک یا به عبارت دیگر، کاهش سرعت انتشار اطلاعات است. رفتارهای با تکرار زیاد، مانند لایک‌ کردن و اشتراک‌گذاری خودکار را می‌توان با تست کپچا (CAPTCHA) که لازمه آن، پاسخگویی یک انسان است یا تعیین ‌کردن هزینه‌ای برای پرداخت، مهار کرد. این کار نه‌تنها فرصت دستکاری را کاهش می‌دهد، بلکه باعث می‌شود مردم بتوانند با اطلاعات کمتر، توجه بیشتری به آنچه می‌بینند داشته باشند. این شرایط، فضای کمتری را برای سوگیری جذابیت در تصمیم‌گیری افراد باقی می‌گذارد. همچنین این‌که شرکت‌های مالک شبکه‌های اجتماعی، الگوریتم‌های خود را طوری تنظیم کنند که برای تعیین محتوایی که به‌مخاطب ارائه می‌دهند، کمتر به سیگنال‌های جذابیت و بیشتر به سیگنال‌های کیفیت تکیه داشته باشند نیز می‌تواند کمک‌کننده باشد. شاید افشاگری‌های خانم هاوگن انگیزه لازم را برای چنین اقداماتی فراهم کند.
 
جمعیتی نه چندان عاقل
به‌تازگی با استفاده از یک برنامه سواد خبری، آزمایشی به نام فیکی (Fakey) انجام شد. فیکی یک بازی است که خبرهایی شبیه آنچه در فیسبوک و توییتر منتشر می‌شوند را شبیه‌سازی می‌کند. شرکت‌کنندگان در این بازی، ترکیبی از مقالات موجود شامل اخبار جعلی، مطالب علمی پیش پا افتاده، منابع فراحزبی و توطئه‌گر و همچنین منابع اصلی را مشاهده می‌کردند. افراد شرکت‌کننده در بازی برای به اشتراک‌گذاری یا پسندیدن اخبار از منابع معتبر و علامت‌گذاری مقالات غیرمعتبر برای بررسی واقعیت، امتیاز دریافت می‌کردند.
 
پژوهشگران دریافتند شرکت‌کنندگان با دیدن جذابیت مقالات غیرمعتبر برای تعداد زیادی از افراد، بیشتر به لایک‌کردن و اشتراک‌گذاری آنها تمایل نشان می‌دهند تا علامت‌گذاری آنها به عنوان مقاله غیرمعتبر. به عبارت دیگر قرار گرفتن در معرض معیارهای جذابیت، نوعی آسیب‌پذیری ایجاد می‌کند. در اینجا خرد جمعی شکست می‌خورد، زیرا بر این فرض غلط استوار شده که جمعیت افراد، شامل گروه‌های متنوع و مستقل است. اما دلایل مختلفی وجود دارد که نشان می‌دهد چنین چیزی درست نیست.
 
نخست این‌که، به دلیل تمایل مردم به معاشرت با افراد مشابه، روابط آنلاین آنها زیاد متنوع نیست. شبکه‌های اجتماعی، ابراز مخالفت با افرادی که کاربران نظر موافقی نسبت به آنها ندارند را تسهیل کرده و باعث شده است مردم به سمت اجتماعات همگن که اغلب به آنها اتاق‌های پژواک گفته می‌شود، سوق پیدا کنند.
 
دوم آن‌که، دوستان بسیاری از مردم دوست یکدیگر هستند و بنابراین بر یکدیگر تأثیر می‌گذارند. یک آزمایش مشهور نشان داد دانستن این‌که دوست شما چه موسیقی‌ای را دوست دارد، بر اولویت‌هایی که از سوی شما اعلام می‌شود تأثیر می‌گذارد. درواقع، تمایل اجتماعی شما به منظور هم‌نظر شدن با دوست­تان، قضاوت مستقل شما را مخدوش می‌کند.
 
سوم این‌که سیگنال‌های محبوبیت ممکن است به بازی گرفته شود. در طول سال‌ها، موتورهای جست‌وجو تکنیک‌های پیچیده‌ای را برای مقابله با اصطلاح «مزرعه لینک» و طرح‌های دیگری را برای دستکاری الگوریتم‌های جست‌وجو ایجاد کرده‌اند. از سوی دیگر، شبکه‌های اجتماعی تازه در حال فهمیدن آسیب‌پذیری‌های خود هستند.
 
افرادی که قصد دستکاری در بازار اطلاعات را دارند، حساب‌های جعلی مانند ترول‌ها و ربات‌های اجتماعی ایجاد و شبکه‌های جعلی را سازماندهی می‌کنند. این افراد به شبکه سرازیر می‌شوند تا با فریب الگوریتم‌­های پلتفرم و همین‌طور سوگیری‌های شناختی مردم این‌طور وانمود کنند که یک تئوری توطئه یا یک نامزد سیاسی خاص، محبوب است. آنها حتی ساختار شبکه‌های اجتماعی را برای ایجاد توهم در مورد نظر اکثریت تغییر می‌دهند.
 
منبع: روزنامه جام جم
انتهای پیام/
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.