قابلیتهای متنوع هوش مصنوعی فراتر از بازی است و به برنامههای جدی گسترش مییابد. اما به طور بالقوه امکان تقلب یا تأثیرگذاری بر انتخابات را هم فراهم میآورد؛ بنابراین بسیاری افراد خواستار اقدام فوری نظارتی برای مدیریت خطرات فریب هوش مصنوعی هستند و فکر میکنند بهتر است این سیستمها دسته بندی شوند.
سیستمهای هوش مصنوعی توانایی فریب را به عنوان یک استراتژی برای دستیابی به اهداف خود نشان دادهاند؛ حتی در زمینههایی که به توسعهدهندگان قصد دارند صداقت را تقویت کنند.
با وجود آنکه ابتدا هوش مصنوعی فقط در بازیها مشاهده شد، اما به مرور در بسیاری از زمینههای دیگر هم توسعه پیدا کرد؛ به اندارهای که در حال حاضر ظرفیتهای فریبنده هوش مصنوعی پیامدهای قابل توجهی پیدا کرده است.
آموزش هوش مصنوعی
بسیاری از سیستمهای هوش مصنوعی (AI) آموزش دیده اند چگونه میتوانند انسانها را فریب دهند. در مقالهای که در ژورنال Patterns در دهم میمنتشر شد، محققان خطرات فریب توسط سیستمهای هوش مصنوعی را توصیف میکنند و از دولتها میخواهند قوانین محکم تری برای رسیدگی به این موضوع وضع کنند.
پیتر اس پارک، نویسنده اول و عضو فوق دکترای ایمنی وجودی هوش مصنوعی در MIT میگوید: توسعه دهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب میشود، ندارند.
استراتژی مبتنی بر فریب
به طور کلی ما فکر میکنیم هوش مصنوعی به این دلیل میتواند ما را به آسانی فریب دهد که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد درست در زمینه آموزشی هوش مصنوعی در نظر گرفته شده است. چون در واقع فریب به آنها کمک میکند تا به این ترتیب بهتر بتوانند به اهداف خود دست یابند.
پارک و همکارانش ادبیاتی را تجزیه و تحلیل کردند که بر روشهایی متمرکز بود که سیستمهای هوش مصنوعی، اطلاعات نادرست را از طریق فریبهای آموختهشده منتشر میکنند.
بارزترین نمونه فریب هوش مصنوعی که محققان در تجزیه و تحلیل خود کشف کردند Meta’s CICERO بود؛ یک سیستم هوش مصنوعی طراحی شده برای بازی دیپلماسی که کاربران را به ایجاد همکاری و داشتن اتحاد تشویق میکند.
توانایی بلوف زدن
پارک میگوید: ما متوجه شدیم که هوش مصنوعی متا یاد گرفته است در فریبکاری استاد باشد. او موفق شده هوش مصنوعی خود را برای برنده شدن در بازی دیپلماسی آموزش دهد.
دیگر سیستمهای هوش مصنوعی نیز توانایی بلوف زدن در بازی پوکر را علیه بازیکنان انسانی حرفهای، حملات جعلی در طول بازی استراتژیک Starcraft II برای شکست دادن حریفان، و ارائه نادرست ترجیحات آنها برای به دست آوردن دست برتر نشان دادند.
به عقیده پارک اشکالی ندارد سیستمهای هوش مصنوعی در بازیها تقلب کنند، اما این موضوع میتواند منجر به پیشرفت در قابلیتهای هوش مصنوعی فریبنده شود که میتواند در آینده به اشکال پیشرفتهتر فریب هوش مصنوعی تبدیل شود.
تقلب در ارزیابی ایمنی
محققان دریافتند بعضی سیستمهای هوش مصنوعی حتی یاد گرفتهاند در تستهایی که برای ارزیابی ایمنی آنها طراحی شدهاند تقلب کنند.
در یک مطالعه، ارگانیسمهای هوش مصنوعی در یک شبیهساز دیجیتالی که به منظور فریب آزمایشی برای از بین بردن سیستمهای هوش مصنوعی ساخته شده بود به سرعت تکثیر میشوند.
غیر قابل کنترل شدن توسط انسان
پارک هشدار میدهد خطرات کوتاهمدت فریبنده هوش مصنوعی شامل آسانتر کردن تقلب و دستکاری در انتخابات برای بازیگران به شمار میرود. ضمن آنکه در نهایت، اگر این سیستمها بتوانند این مجموعه مهارتها را اصلاح کنند، انسانها میتوانند کنترل آنها را از دست بدهند.
او میگوید: ما به عنوان یک جامعه به زمان بیشتری نیاز داریم تا برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای متنوع آن آماده شویم. اما با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکند نیز جدیتر خواهند شد.
مذاکرات اقتصادی
پارک و همکارانش فکر نمیکنند جامعه هنوز اقدام مناسبی برای رسیدگی به فریب هوش مصنوعی داشته باشد. اما باید دید که چگونه میتوان سیاستهای طراحیشده برای کاهش فریب هوش مصنوعی را با توجه به اینکه دست اندرکاران هوش مصنوعی هنوز تکنیکهایی برای کنترل این سیستمها ندارند به اجرا در آورد.
همچنین به نظر میرسد اگر ممنوعیت فریبکاری هوش مصنوعی در حال حاضر امکان پذیر نیست، میتوان سیستمهای هوش مصنوعی را در محدودههای پرخطر طبقهبندی کرد.
توجه داشته باشیم با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند نیز جدیتر خواهند شد.
منبع: همشهری آنلاین