سواد دیجیتال جدید به معنای فهم و ارزیابی پیامد‌های یک سبک زندگی همراه با شکلی از همیشه متصل بودن است.

به گزارش گروه وبگردی باشگاه خبرنگاران جوان،  امروزه الگوریتم‌های هوش مصنوعی هدایت بسیاری از جنبه‌های زندگی را در کنترل خود گرفته اند؛ از انتخاب اینکه چه مسیری را باید در رفت و آمد‌های هر روزه به محل کار درپیش گرفت تا تصمیم گیری در ابن باره که با چه کسی باید قرار دوستانه بگذارید تا مسائل قانونی و قضایی و حقوقی پیچیده‌ای نظیر پیش بینی مجرمان پر خطر.

راز پنهان در پشت هوش مصنوعی/ عواقب استفاده از الگوریتم‌ها و شکاف دیجیتال جدید


بیشتربخوانید : صدای هوش مصنوعی زنانه است یا مردانه؟


شرکت‌های بزرگ فناوری همچون گوگل و فیس بوک از هوش مصنوعی برای شناخت بیشتر مشتریانشان از طریق گنجینه عظیم و همراه با جزئیات داده‌های آن‌ها استفاده می‌کنند. این کار به آن‌ها اجازه می‌دهد تا عملکرد‌های جمعی کاربران را از طریق اقداماتی، چون هدف قرار دادن محدود به پول تبدیل کنند؛ راهبردی که آگهی دهندگان برای هدف قرار دادن دقیق مجموعه‌ای از کاربران به کار می‌گیرند.

به این ترتیب است که هم اکنون بسیاری از افراد بیشتر به پلتفرم‌ها و الگوریتم‌ها اعتماد دارند تا دولت‌ها و جامعه مدنی خودشان. مطالعه‌ای که در اکتبر سال ۲۰۱۸ انجام گردید نشان داد که مردم آنقدر الگوریتم‌ها را مرجع شناخت خود قرار داده اند که بیشتر به تجهیزات تکنولوژیک اتکا می‌کنند، تا جایی که فکر می‌کنند آن‌ها به شکلی از الگوریتم اتکا دارند نه انسان.

در گذشته متخصصان فناوری از به وجود آمدن یک «شکاف دیجیتال» بین کسانی که می‌توانستند به رایانه‌ها و اینترنت دسترسی داشته باشند و کسانی که نمی‌توانستند نگران بودند. در نتیجه خانوار‌هایی که دسترسی کمتر به فناوری‌های دیجیتال داشتند، در توانایی خود برای کسب پول و انباشت مهارت‌ها به نوعی فاقد امتیاز لازم بودند.

اما با توجه به تکثیر سریع وسایل دیجیتال، این شکاف دیگر تنها درباره دسترسی نیست. مردم با بیش انباشتی اطلاعات و انبوه تصمیمات الگوریتمی که تک تک جنبه‌های زندگی شان را به تصرف خود در می‌آورد چگونه باید برخورد کنند؟

کاربران زیرک‌تر در حال فاصله گرفتن از وسایل خود و کسب آگاهی‌های بیشتر در مورد نحوه اثرگذاری الگوریتم‌ها بر زندگی خود هستند. در عین حال مشتریانی که اطلاعات کمتری دارند، حتی بیشتر از قبل در حال اتکا بر الگوریتم‌ها در نحوه تصمیم گیری‌های خود هستند.

هوش مصنوعی چه چیزی را در پشت پرده پنهان دارد؟

من هم مثل بسیاری افراد دیگری که درمورد سیستم‌های اطلاعات مطالعه می‌کند، دلیل اصلی شکاف دیجیتال جدید را این می‌دانم که عده بسیار اندکی از مردم از نحوه کار الگوریتم‌ها خبر دارند. اکثریت کاربران الگوریتم‌ها را به چشم یک جعبه سیاه می‌بینند.
الگوریتم‌های هوش مصنوعی داده‌ها را می‌گیرند، آن‌ها را در یک مدل ریاضی جا می‌دهند و درباره طیفی از مسائل دست به یک پیش بینی می‌زنند؛ از اینکه شما از چه ترانه‌ای ممکن است خوشتان بیاید گرفته تا اینکه یک نفر چند سال را باید در زندان بگذراند. این مدل‌ها بر اساس داده‌های گذشته و دسترسی به مدل‌های پیشین توسعه پیدا کرده و بهبود یافته اند. بیشتر مردم - حتی در مواقعی خود طراحان الگوریتم‌ها – واقعا نمی‌دانند که در درون یک مدل چه می‌گذرد.

پژوهشگران مدت هاست که نسبت به انصاف الگوریتمی ابراز نگرانی می‌کنند. برای مثال معلوم شده است که ابزار استخدامی مبتنی بر هوش مصنوعی آمازون نامزد‌های زن را نادیده می‌گیرد. این سیستم آمازون به طور گزینشی کلمات به وضوح جنسیتی را استخراج می‌کند، کلماتی که احتمال استفاده مردان از آن‌ها در مکالمات روزمره شان بیشتر است، کلماتی از قبیل «انجام شد» و «دستگیر شد.»

سایر مطالعات نیز نشان داده اند که الگوریتم‌های قضایی دارای سوگیری نژادی هستند و متهمان سیاه پوست فقیر را بیشتر از دیگران برای مدت طولانی تری محکوم می‌کنند.

در قالب «قانونگذاری صیانت از داده‌های عمومی در اتحادیه اروپا» که به تازگی به تصویب رسیده، افراد این حق را پیدا کرده اند تا پیرامون معیاری که الگوریتم‌ها برای اتخاذ تصمیمات خود در مورد آن‌ها به کار برده اند، توضیح بخواهند. این قانون با روند تصمیم گیری الگوریتمی همچون یک کتاب آشپزی برخورد می‌کند. فکر پشت تدوین این قانون این بوده که اگر شما دستور پخت را درک کنید، می‌توانید درک کنید که الگوریتم چگونه بر زندگی شما تاثیر می‌گذارد.

در عین حال برخی از پژوهشگران هوش مصنوعی برای به کار گرفته شدن الگوریتم‌هایی فشار آورده اند که عادل، پاسخگو و شفاف و همچنین قابل تفسیر باشند، به این معنا که آن‌ها باید تصمیمات خود را از طریق روند‌هایی اتخاذ کنند که انسان‌ها بتوانند آن روند‌ها را بفهمند و به آن‌ها اعتماد کنند.

در این میان شفافیت چه تاثیری خواهد داشت؟ در یک مطالعه دانشجویان بر اساس الگوریتم کلاس بندی شدند و در این باره که نمرات همکلاسی هایشان چگونه تنظیم شده تا بتوانند به کلاس آخر راه پیدا کنند، سطوح مختلفی از توضیحات به آن‌ها ارائه شد. دانشجویانی که توضیحات شفاف تری به آن‌ها داده شد عملا کمتر به الگوریتم اعتماد کردند. این باز هم نشان از یک شکاف دیجیتال می‌دهد: آگاهی از الگوریتم‌ها به اطمینان بیشتر به سیستم منجر نمی‌شود.

اما شفافیت نوشدارو نیست. حتی وقتی که روند کلی یک الگوریتم توضیح داده می‌شود، جزئیات ممکن است همچنان بسیار پیچیده‌تر از آن باشد که کاربران بتوانند آن را درک کنند. شفافیت فقط به کاربرانی کمک خواهد کرد که به قدر کافی پیچیدگی دارند تا ظرافت‌ها و پیچیدگی‌های الگوریتم‌ها را درک کند.

برای مثال در سال ۲۰۱۴ بن برنانکی رئیس پیشین بانک مرکزی آمریکا در ابتدا فاینانس دوباره وثیقه‌ها توسط یک سیستم خودکا را انکار کرده بود. بیشتر افراد ثبت نام کننده برای این نوع فاینانس دوباره وثیقه ها، درک نمی‌کنند که الگوریتم‌ها چگونه ارزش اعتباری آن‌ها را تعیین می‌کنند.

خارج شدن از اکوسیستم اطلاعاتی جدید

در حالی که الگوریتم‌ها تاثیر بسیار زیادی بر زندگی مردم دارند، تنها بخش بسیار کوچکی از مشارکت کنندگان آنقدر پییچیدگی دارند تا بتوانند به طور کامل سردربیاورند که الگوریتم‌ها چگونه بر زندگی شان تاثیر می‌گذارند.

آمار زیادی در این باره وجود ندارد که چه تعداد از مردم نسبت به الگوریتم‌ها شناخت دارند. مطالعات شواهدی از نگرانی از الگوریتم‌ها را یافته اند که به عدم توازن عمیق قدرت بین پلتفرم‌هایی که الگوریتم‌ها را به کار می‌گیرند و کاربرانی که به آن‌ها متکی هستند منجر می‌شود.

یک مطالعه درمورد استفاده فیس بوک از الگوریتم‌ها دریافته است که وقتی مشارکت کنندگان از الگوریتم فیس بوک برای انتخاب فید‌های خبری آگاه شدند، حدود ۸۳ درصد آن‌ها در تلاش برای برخوردار شدن از امتیاز الگوریتم رفتار خود را تنظیم کردند، در حالی که حدود ۱۰ درصد استفاده خود از فیس بوک را کاهش دادند.

گزارش نوامبر ۲۰۱۸ مرکز تحقیقاتی پیو نشان می‌داد که اکثریت غالبی از جامعه نگرانی‌های جدی درباره استفاده از الگوریتم‌ها برای کاربرد‌های ویژه دارند. این گزارش دریافته بود که ۶۶ درصد مردم فکر می‌کردند که محاسبه امتیازات مالی شخصی توسط الگوریتم‌ها کار منصفانه‌ای نیست، در حالی که ۵۷ درصد همین حرف را در مورد بررسی خودکار درخواست‌های شغلی زده بودند.

بخش کوچکی از افراد می‌توانند چگونگی استفاده الگوریتم‌ها از داده‌های شخصی شان را به نوعی کنترل کنند. برای مثال پلتفرم هو- مینتی به کاربرانش اجازه می‌دهد که با انتخاب یک گزینه، میزان گردآوری داده‌های شخصی خود توسط این پلتفرم را کنترل کنند. دایره المعارف آنلاین اوریپدیا به کاربران خود این امکان را می‌دهد تا در روند گردآوری و تنظیم داده‌ها یک ذینفع باشند، یعنی کاربران می‌توانند نحوه جمع آوری اطلاعات و عرضه آن‌ها را نیز کنترل کنند.

با این حال اکثریت غالب پلتفرم‌ها این انعطاف پذیری را برای کاربران نهایی خود فراهم نمی‌کنند یا اینکه الگوریتم‌ها از ترجیحات آن‌ها در تنظیم فید‌های خبری شان چگونه استفاده کنند حق انتخاب یا توضیحی به آن‌ها نمی‌دهند. اگر هم گزینه‌هایی در این مورد وجود داشته باشد، ممکن است کاربران از آن‌ها خبر نداشته باشند. حدود ۷۴ درصد از کاربران فیس بوک در یک بررسی گفته اند که آن‌ها اطلاع ندارند چگونه مختصات این پلتفرم را منطبق بر منافع شخصی خود تنظیم کنند.

به نظر من سواد دیجیتال جدید دیگر به معنای اطلاع از چگونگی استفاده از یک رایانه یا متصل بودن به اینترنت نیست، بلکه به معنای فهم و ارزیابی پیامد‌های یک سبک زندگی همراه با شکلی از همیشه متصل بودن است.

این سبک زندگی تاثیر معناداری بر نحوه تعامل افراد با یکدیگر، بر توانایی آن‌ها به توجه کردن به اطلاعات جدید و به پیچیدگی روند‌های تصمیم گیری آن‌ها دارد.

نگرانی فزاینده از الگوریتم‌ها را در تغییرات مشابهی در اقتصاد نیز می‌توان مشاهده کرد. گروه کوچکی از افراد در حال بهره مندی از مزایای خودکارسازی هستند، در حالی که کارگران زیادی در جایگاه خطرناکی قرار دارند.

خارج شدن از سازوکار‌های الگوریتمی یک تجمل است و ممکن است روزی به نمادی از رفاه و دولتمندی تبدیل شود که تنها برای گروه منتخب محدودی دردسترس قرار دارد. پس مسئله این است که چه آسیب‌های قابل سنجشی برای کسانی وجود خواهد داشت که در طرف نادرست شکاف دیجیتال قرار دارند.

منبع: فارس

انتهای پیام/

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.