سایر زبان ها

صفحه نخست

سیاسی

بین‌الملل

ورزشی

اجتماعی

اقتصادی

فرهنگی هنری

علمی پزشکی

فیلم و صوت

عکس

استان ها

شهروند خبرنگار

وب‌گردی

سایر بخش‌ها

استفاده از هوش مصنوعی برای فیلتر نظرات منفی از حساب ورزشکاران در فرانسه

فدراسیون تنیس فرانسه از یک شرکت فناوری خواست تا از هوش مصنوعی برای کمک به بازیکنان در مبارزه با نفرت پراکنی و آزار شبکه‌های اجتماعی استفاده کند. 

فدراسیون تنیس فرانسه به شرکت فناوری Bodyguard.ai پول می‌دهد تا نرم‌افزاری را به بازیکنان Open ارائه کند که از هوش مصنوعی برای مسدود کردن نظرات منفی و نفرت‌انگیز در شبکه‌های اجتماعی در زمان واقعی استفاده می‌کند.

استفاده از برنامه هوش مصنوعی اختیاری است، اما برای همه ۷۰۰ تا ۸۰۰ بازیکن در مسابقات تنیس، از جمله انفرادی، دونفره، نوجوانان و رقبای با ویلچر رایگان است. این شرکت گزارش داد که ده‌ها بازیکن از ابتدای هفته برای این سرویس ثبت نام کرده‌اند. این برنامه برای ورزشکاران در اکانت‌های توئیتر، اینستاگرام و فیس بوک در دسترس است.

FFT در بیانیه‌ای اعلام کرد: اکانت‌های شبکه‌های اجتماعی بازیکنان تنیس باعث توهین، تهدید به مرگ و اظهار نظر‌های نفرت انگیز و گاهی نژادپرستانه و همجنس گرایانه ترول‌ها می‌شود. با اتصال به این سیستم جدید، آن‌ها از انواع آزار و اذیت (تبعیض، توهین، تمسخر، تهدید و غیره) در امان خواهند بود و می‌توانند در امنیت کامل با هواداران خود در ارتباط باشند. 

در این بیانیه، یان گورین، رئیس ورزش Bodyguard.ai، نفرت ناشناخته‌ای را که اغلب در شبکه‌های اجتماعی به اشتراک گذاشته می‌شود، واقعیت غم انگیز خواند.

گورین گفت: هدف محافظت از بازیکنان و سلامت روان آن‌ها به طور مستقیم و غیرمستقیم است، زیرا اطرافیان آن‌ها نیز می‌توانند این نظرات را بخوانند؛ تنیس یکی از ورزش‌هایی است که بیشتر تحت تاثیر این نفرین قرار گرفته است.

بازیکنان شرکت کننده باید یک کد QR را قبل از اتصال به حساب‌های شبکه‌های اجتماعی خود اسکن کنند. پیام‌های خصوصی تعدیل نمی‌شوند.

Bodyguard.ai گفت: گزارش‌های روزانه را در اختیار برگزارکنندگان مسابقات قرار می‌دهد که تعداد پیام‌های دریافتی و حذف‌شده را نشان می‌دهد و حتی در صورت حمله شناسایی شده به آن‌ها هشدار می‌دهد. در صورت درخواست FFT، این شرکت می‌گوید می‌تواند «در صورت پیگیری قانونی، گزیده‌ای از پیام‌ها و هویت مجرمان را ارائه کند».

گورین به آسوشیتدپرس گفت: نرم‌افزار این شرکت به‌طور مداوم برای کلمات یا شکلک‌های جدید که باید غربال شوند بروزرسانی می‌شود و این نرم‌افزار «به کمتر از ۱۰۰ میلی‌ثانیه برای تجزیه و تحلیل یک نظر و حذف آن در صورت تنفر یا نامطلوب بودن نیاز دارد».

Bodyguard.ai اعلام کرد: فناوری هوش مصنوعی خود را توسعه داده است که به‌طور خودکار ۹۰ درصد محتوای سمی را در زمان واقعی شناسایی و مسدود کند.

همان طور که فناوری به طور فزاینده‌ای پیچیده می‌شود، هوش مصنوعی در صنایع بیشتری مورد استفاده قرار می‌گیرد، از همراهان تمرین برای تناسب اندام گرفته تا خریداران شخصی آنلاین. اما رهبران هوش مصنوعی و فناوری موافق هستند که هوش مصنوعی نیاز به مقررات دارد و کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی باشد.

منبع: cnet

تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۳
در انتظار بررسی: ۰
ناشناس
۰۹:۱۱ ۱۵ خرداد ۱۴۰۲
چ ربطی ب دیسکورد داشت ؟
جواد
۰۶:۲۱ ۱۵ خرداد ۱۴۰۲
همین الان در اینستاگرام و توئیتر این مسئله اجرا میشه! نظرات منفی قابل مشاهده نیست و البته قابل پاسخ هم نیست.
ناشناس
۰۲:۳۸ ۱۵ خرداد ۱۴۰۲
اینجا هم لازم. برا فیلتر برخی نظرات سلبریتی ها که رسما و جدا باعث خشونت میشه