به گزارش گروه وبگردی باشگاه خبرنگاران جوان،هم اکنون هوش مصنوعی یکی از بزرگترین ابزارهای پیشرفت در جهان به شمار میرود. این دستاورد توانسته تحول بزرگی در صنایع ایجاد کند، ولی این تکنولوژی، با همه دستاوردهایش هنوز گامهای نخست را طی میکند و به همین دلیل خطاهای زیادی دارد و ممکن است خطراتی را هم برای بشر به همراه داشته باشد. به جز خطراتی که خود هوش مصنوعی دارد، استفادههای نادرست از آن هم میتواند برای نسل بشر خطر آفرین شود. امروز باهم برخی از خطراتی را که هوش مصنوعی میتواند برای انسان به همراه داشته باشد، مرور میکنیم.
هوش مصنوعی خیلی ساده گول میخورد
با وجود پیشرفت چشمگیر سیستم بینایی ماشینهای هوشمندطی سالهای اخیر، همچنان احتمال بروز خطاهای جدی توسط آن وجود دارد. این خطاها آن قدر زیاد است که میتواند رانندگی با خودروهای خودران را بسیار خطرناک کند. به طور مثال روی یک سیب نوشته اند آی پد و هوش مصنوعی ۹۹ درصد آن را آی پد تشخیص داده است. البته این خطاها به صورت طبیعی و با عکسهای معمولی هم رخ داده است که باعث نگرانی بیشتر میشود، چون نشان میدهد احتمال بروز خطاهای واقعی و برنامه ریزی نشده در چنین سیستمهایی وجود دارد. محققانی از دانشگاههای برکلی، واشنگتن و شیکاگو، دیتابیسی از ۷۵۰۰ عکس متضاد طبیعی را با چندین سیستم بینایی ماشین امتحان کردند و متوجه شدند دقتشان بیش از ۹۰ درصد افت میکند و در برخی موارد نرم افزار تنها قادر به تشخیص ۲ تا ۳ درصد تصاویر است. برای مثال در عکسهای زیر، هوش مصنوعی از چپ به راست سوژه تصاویر را راسو، موز، شیر دریایی و دستگیره آشپزخانه تشخیص داده این در حالی است که دیدن سنجاقک در این تصاویر برای ما انسانها بسیار ساده است.
چنگاندازی هوش مصنوعی به حریم خصوصی
جدای از خطر تشخیص اشتباه هوش مصنوعی باید به یکی دیگر از خطرات هوش مصنوعی اشاره کنیم. حریم خصوصی از ابتداییترین حقوق بشر است. با این همه، ممکن است چنین مفهومی، در آیندهای نه چندان دور، به دلیل استفاده نادرست از فناوری هوش مصنوعی کاملا پایمال شود. امروزه، به لطف پیشرفت در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است. با فناوری تشخیص چهره، شناسایی شما در انبوهی از جمعیت به سادگی امکانپذیر است و برخی دوربینهای امنیتی در برخی کشورها به این فناوری مجهز هستند. توانایی گردآوری دادههای هوش مصنوعی این امکان را برای وبسایتهای فراهم آورنده و شبکههای مختلف اجتماعی به وجود میآورد که یک جدول زمانی از فعالیتهای روزانه شما را در اختیار داشته باشند. البته در گزارشی در همین صفحه از اشتباهات نژاد پرستانهای نوشته ایم که هوش مصنوعی در تشخیص چهره تاکنون داشته است.
جنگ روباتهای سرباز
روباتهای کشنده، روباتهای سربازی هستند که میتوانند مطابق برنامه از پیش تعیین شده هدف خود را جستوجو کنند یا به صورت کاملا مستقل عملیات هدف گذاری را انجام دهند. طبق گزارش ها، کمابیش تولید چنین روباتهایی در دستور کار همه کشورهای پیشرفته قرار گرفته است. برپایه گفتههای یک مقام ارشد نظامی چینی، پیش بینی شده جنگهای آینده به دست انسان انجام نمیشود بلکه گرداننده آنها روباتهای سرباز خواهند بود. به کارگیری چنین جنگافزارهایی، از دیگر نگرانیهای موجود در زمینه هوش مصنوعی است. چه میشود اگر این روباتها سرکشی کنند و کارهای خطرآفرینی انجام دهند یا اگر نتوانند میان اهداف خود و افراد بیگناه تمیز قایل شوند؟ در این حالت، چه کسی پاسخگوی این پیشامد خواهد بود؟
هوش مصنوعی و از بین رفتن شغل انسانها
براساس گزارش منتشر شده توسط سازمان جهانی Mckinsey، حدود۸۰۰ میلیون کار و پیشه در سراسر جهان تا سال ۲۰۳۰ توسط هوش مصنوعی انجام خواهد شد. حال این پرسش به وجود میآید چه بر سر انسانهایی خواهد آمد که قبلا این ۸۰۰ میلیون شغل را داشته اند؟ البته در این میان برخی بر این باورند که شغلهای جدید بسیاری به خاطر وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل جدید ایجاد میشود. این افرادبر این باورند که بعد از این، مردم به جای انجام پیشههای زمانبر و سخت، زمان بیشتری را برای انجام کارهای مهم و گذراندن وقت با دوستان و خانوادههایشان خواهند داشت.
استفاده تروریستی از هوش مصنوعی
درحالی که هوش مصنوعی میتواند تا اندازه چشمگیری در انجام کارهای سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل میتواند در دست افراد بی صلاحیت قرار گیرد و کمک بزرگی برای تروریستها در انجام حملات دهشتناک باشد. هم اکنون، برخی از بنگاههای تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیماهای بدون سرنشین بهرهبرداری میکنند. ISIS (داعش) نخستین حمله پهپادی موفق خود را در سال ۲۰۱۶ انجام داد که منجر به کشته شدن دو نفر در عراق شد. این مسئله اهمیت وضع قوانینی سختگیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر میکند.
تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی
حقیقت تلخی وجود دارد که گهگاه آدمی درخصوص یک مذهب، باور، ملت یا نژاد تعصباتی خشمگینانه و گاهی بیرحمانه دارد. چنین تعصباتی کاملا ناآگاهانه نیز میتواند توسط افرادی متعصب به سامانههای هوش مصنوعی (که به دست انسان گسترش داده میشوند) وارد و باعث سوگیریهای نادرستی شود. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است. این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته، آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردها ارزشمندتر از زنان در نظر گرفته شدهاند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکسهای دو فرد با نژاد آفریقایی-آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و خشکاندیشی نژادی است.
منبع: خراسان
انتهای پیام/