اخبار جعلی در شبکه‌های اجتماعی مانند علف هرزی که مدام جوانه می‌زند

تیمی از دانشمندان دانشگاه نیویورک با تحقیق در زمینه سرعت انتشار اخبار جعلی در شبکه‌های اجتماعی به نتایج قابل توجهی دست یافته‌اند.

اطلاعات نادرست در عصر مدرن مانند علف هرزی هستند که هر بار که در یک پلتفرم اجتماعی قطع می‌شود، همچنان می‌تواند در قالب اسکرین شات در سایر پلتفرم‌ها زنده بماند.

این نتیجه مطالعه‌ای جدید از محققان مرکز شبکه‌های اجتماعی و سیاست دانشگاه نیویورک است که در جریان بررسی اطلاعات غلط مدرسه هاروارد کندی منتشر شد.

زیو ساندرسون، مدیر اجرایی مرکز اجتماعی دانشگاه نیویورک گفت:‌ بسیاری از پوشش خبری یا گفتمان‌های رایج این است که «فیس‌بوک چه کرده است» یا «توئیتر چه کرده است» و این بحث‌ها معمولا کاملا بی‌ربط با یکدیگر اتفاق می‌افتند. ما علاقه‌مند بودیم بفهمیم زمانی که یک پلتفرم جریان اصلی یک پیام خاص را ممنوع می‌کند یا در یک پیام خاص مداخله می‌کند، چه اتفاقی برای آن پیام می‌افتد نه تنها در آن پلتفرم بلکه در سایر پلتفرم‌ها.

برای بررسی این موضوع، این تیم انتشار توئیت‌های دونالد ترامپ، رئیس‌جمهور سابق آمریکا را از اول نوامبر ۲۰۲۰ تا ۸ ژانویه ۲۰۲۱ دنبال کرد که توسط توئیتر به دلیل داشتن اطلاعات نادرست مرتبط با انتخابات پرچم‌گذاری شده بود.

توئیتر در آن زمان اعلام کرد که در حدود ۳۰۰۰۰۰ توئیت مربوط به انتخابات «مداخله نرم» انجام داده است و آن‌ها را بدون حذف یا ممانعت از اشتراک‌گذاری به‌عنوان مورد مناقشه و بالقوه گمراه‌کننده علامت‌گذاری کرده است. حدود ۴۵۶ توئیت «مداخله سخت» از توئیتر دریافت کردند. این توئیت‌ها با یک پیام هشدار پوشانده شده بودند، به این معنی که سایر کاربران نمی‌توانند پست را بازتوئیت کنند، به آن پاسخ داده یا آن را لایک کنند. توئیتر در نهایت در ژانویه ۲۰۲۱ حساب ترامپ را تعلیق کرد.

چیزی که ساندرسون و همکارانش کشف کردند این بود که وقتی توئیتر روی یک پیام مداخله می‌کند، یا با گذاشتن یک برچسب هشدار روی آن، یا با مسدود کردن تعامل (ممانعت از بازتوئیت یا نظر دادن سایر کاربران)، هیچ کاری برای جلوگیری از گسترش گسترده‌تر پیام‌ها انجام نمی‌دهد.

مردم همچنان می‌توانند به توئیت پیوند دهند، پیام مستقیم را کپی و جایگذاری کنند، یا از آن اسکرین شات بگیرند و آن را در پلتفرم‌های دیگری مانند اینستاگرام یا فیسبوک پست کنند.

مگان براون، دانشمند پژوهشی در مرکز رسانه‌های اجتماعی و دانشگاه نیویورک گفت: وقتی پلتفرم‌ها تنها به صورت مجزا عمل می‌کنند، اما مردم از چندین پلتفرم به‌طور همزمان استفاده می‌کنند، با توجه به سرعت انتشار اطلاعات نادرست، اعتدال محتوای شما محکوم به شکست است. همه این قطعات بسیار به هم پیوسته هستند، تعمیر یک چیز معین در هر پلتفرم به صورت مجزا هرگز مشکل را به طور کامل حل نمی‌کند.

فیک نیوز

محققان می‌گویند به دسترسی بیشتری به داده‌ها نیاز دارند

اندرسون تاکید می‌کند این بدان معنا نیست که مداخلات سخت، کارساز نیست. آن‌ها در واقع در کنترل انتشار اطلاعات نادرست در داخل پلتفرم به خوبی کار می‌کنند.

او گفت: ما این را در ریتوئیت‌ها و تعامل می‌بینیم. این نیز یک مداخله پرهزینه است. آن‌ها این نوع گفتار را کاملا محدود می‌کنند. بنابراین، این در جیب پشتی آن‌ها است، اما من می‌دانم که چرا آن‌ها نمی‌خواهند آن قدر زیاد از آن استفاده کنند.

ساندرسون افزود: مسئله پیچیده‌تر این واقعیت است که در طول انتخابات ۲۰۲۰، صدا‌های بلند دیگری که معمولا یک منبع رسمی در نظر گرفته می‌شوند نیز اطلاعات نادرستی درباره انتخابات منتشر می‌کنند. آنچه اخیرا شاهد آن بوده‌ایم این است که نخبگان سیاسی، افرادی با میلیون‌ها و میلیون‌ها پیرو، حاملان اصلی انتشار این اطلاعات نادرست هستند.

از آن جایی که به سال‌های ۲۰۲۲ و ۲۰۲۴ همراه با انتخابات جدید و همه‌گیری نگاه می‌کنیم، برای پلتفرم‌های اجتماعی و مقامات دولتی بسیار مهم است که سیاست‌های تعدیل محتوا را در سطح اکوسیستم در نظر بگیرند، نه فقط در سطح پلتفرم فردی، اگر به آن علاقه‌مند هستند.

ساندرسون گفت: مقابله با اطلاعات نادرست را جدی بگیریم. ما باید بیشتر به این فکر کنیم که چگونه منابع اطلاعاتی آنلاین مختلف، از جمله موتور‌های جست و جو، با یکدیگر همکاری می‌کنند تا مردم را آگاه کنند یا اطلاعات نادرست به مردم بدهند؛ یکی از جا‌هایی که من با پلتفرم‌ها همدردی می‌کنم، این پرسش معرفت‌شناختی درباره اطلاعات معتبر است. اطلاعات ممکن است در طول زمان تغییر کنند و اطلاعات نادرست دیروز ممکن است به اطلاعات امروز تبدیل شوند.

از آن جایی که مطالعه NYU مشاهده‌ای بود، تیم نمی‌تواند بگوید که آیا رابطه علی بین این مداخلات مختلف و سرعت و فاصله انتشار اطلاعات نادرست وجود دارد یا خیر.

ساندرسون گفت: مداخلات زیادی وجود دارد که جذابیت شهودی دارند، اما لزوما موثر نیستند.

براون و ساندرسون برای سنجش میزان موثر بودن این مداخلات در واقع استدلال می‌کنند که محققان مستقل باید بتوانند به داده‌های این پلتفرم‌ها دسترسی داشته باشند که با اقدام اخیر فیس‌بوک برای جلوگیری از مطالعه تبلیغات سیاسی در سایتش توسط محققان دانشگاه نیویورک پیچیده شده است.

براون گفت: این نوع تحقیقات نمی‌تواند فقط در فیس‌بوک اتفاق بیفتد، آزمایش آن در خارج از پلتفرم برای این کار واقعا مهم است.

ساندرسون و براون بر نیاز پلتفرم‌ها برای همکاری با یکدیگر و با محققان برای یافتن راه‌حل‌های موثری که می‌توانند اعتماد کاربران را ایجاد کنند، تاکید می‌کنند. این کار با گسترش کار در NYU و جا‌های دیگر برای انجام تحقیقات حفاظت از حریم خصوصی با استفاده از داده‌های شبکه‌های اجتماعی شروع می‌شود.

ساندرسون به گزارش شفاف سازی اخیر فیس‌بوک اشاره و تاکید می‌کند برخی از پلتفرم‌های شبکه‌های اجتماعی هنوز مایل نیستند به محققان دسترسی کامل و مستقیم به اطلاعات مورد نیازشان بدهند.

ساندرسون گفت: این یک تعریف واقعا عجیب از شفافیت است؛ زیرا فقط آن‌ها به داده‌های اساسی دسترسی دارند و نحوه تجزیه و تحلیل آن را انتخاب می‌کنند. شفافیت در جا‌های دیگر به این شکل نیست و شفافیت در این جا می‌تواند موثر واقع شود.

منبع: popsci

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار