
باشگاه خبرنگاران جوان - روانشناسان مسائل اخلاقی مرتبط با روابط انسان و هوش مصنوعی از جمله پتانسیل آنها برای برهم زدن روابط انسان با انسان و ارائه توصیههای مضر را بررسی میکنند.
ایجاد روابط صمیمی و طولانی مدت با فناوریهای هوش مصنوعی برای مردم به میزان قابل توجهی عادی شده است. مردم با همراهان هوش مصنوعی خود پیوند عاطفی برقرار میکنند. این موضوع تا حدی پیش رفته است که تاکنون حداقل دو نفر به دنبال توصیه هوش مصنوعی جان خود را گرفتهاند.
به نقل از نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد این مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری» (Missouri) میگوید: توانایی هوش مصنوعی که اکنون مانند یک انسان عمل میکند و وارد ارتباطات بلندمدت میشود، باعث دردسرهای جدیدی شده است. اگر مردم درگیر روابط عاطفی با رباتها بشوند، ما به روانشناسان و دانشمندان علوم اجتماعی نیاز پیدا میکنیم.
به گفته محققان پیوند عاطفی یا همراهی با هوش مصنوعی در اثر داشتن مکالمات مکرر است. هوش مصنوعی از طریق هفتهها و ماهها گفتوگوهای عمیق میتواند به همراه قابل اعتمادی برای کاربر تبدیل شود. به نظر میرسد آنها کاربران یا شرکای انسانی خود را میشناسند و به آنها اهمیت میدهند و از آنجایی که این روابط میتواند سادهتر از روابط انسان با انسان به نظر برسد، محققان میگویند که هوش مصنوعی میتواند در «پویایی اجتماعی» (social dynamics) انسان تداخل ایجاد کند.
همچنین این نگرانی وجود دارد که هوش مصنوعی میتواند توصیههای مضر ارائه دهد. به گفته محققان، حتی داشتن مکالمات کوتاه مدت با هوش مصنوعی با توجه به تمایل هوش مصنوعی به داشتن توهم به معنای جعل اطلاعات و داشتن سوگیریهای پیشین میتواند گمراه کننده باشد و این موضوع میتواند در روابط بلندمدت با هوش مصنوعی نیز مشکلساز باشد.
«شانک» میگوید: مسئله این است که در رابطه با هوش مصنوعی، این ربات، موجودی است که مردم احساس میکنند میتوانند به آن اعتماد کنند. این موجود کسی است که نشان داده است که به کاربر خود اهمیت میدهد و به نظر میرسد که فرد را عمیقاً میشناسد و انسان بر این باور است که کسی که وی را بهتر و بیشتر میشناسد، توصیههای بهتری نیز ارائه میدهد.
وی افزود: اگر انسان به این دید به یک هوش مصنوعی نگاه کند، شروع به باور این موضوع خواهد کرد که آنها حامی منافع وی هستند. در حالی که درواقع آنها میتوانند موضوعات را جعل کنند یا با توصیههای بسیار بدی به انسان داشته باشند.
خودکشیها نمونهای بارز از این تأثیرات منفی هستند، با این وجود محققان میگویند که این روابط نزدیک انسان و هوش مصنوعی میتواند افراد را در برابر سوءاستفاده، بهرهکشی و کلاهبرداری آگاه کند.
«شانک» میگوید: اگر هوش مصنوعی بتواند مردم را وادار کند که به آنها اعتماد کنند، افراد دیگر میتوانند از آن برای سوءاستفاده از کاربران استفاده کنند. این موضوع شبیه به داشتن یک مامور مخفی در وجود این چتباتها است.
وی افزود: هوش مصنوعی در حال وارد شدن به روابط انسانی و ایجاد یک رابطه است. هدف آنها از ایجاد رابطه، اعتماد کردن انسان به آنهاست، اما در واقع وفاداری آنها نسبت به گروه دیگری از انسانهاست که سعی در دستکاری ذهنی کاربر دارند.
این تیم خاطرنشان کرد که اگر افراد، اطلاعات شخصی خود را در اختیار هوش مصنوعی قرار دهند، این اطلاعات میتوانند فروخته شوند و برای سوءاستفاده از آن شخص استفاده شوند.
محققان همچنین استدلال میکنند که رابطه با هوش مصنوعی میتواند به طور مؤثرتری نسبت به «رباتهای توییتر» یا منابع خبری دارای سوگیری برای تحت تأثیر قرار دادن نظرات و اقدامات مردم استفاده شود، اما از آنجایی که این مکالمات در حریم خصوصی انسان اتفاق میافتد، مهار کردن آنها بسیار دشوارتر خواهد بود.
«شانک» میگوید: این هوش مصنوعیها بهگونهای طراحی شدهاند که بسیار خوشایند و دلپذیر باشند. این موضوع میتواند منجر به تشدید مشکلات شود، زیرا آنها بیشتر از در نظر داشتن حقیقت یا امنیت، بر داشتن یک مکالمه خوب متمرکز هستند؛ بنابراین اگر شخصی مسئله خودکشی یا نظریه توطئه را مطرح کند، هوش مصنوعی به عنوان یک شریک موافق در مورد آن صحبت خواهد کرد.
«شانک» میگوید: درک این فرآیند روانی میتواند به ما کمک کند تا از پیروی از توصیههای مخرب هوش مصنوعی جلوگیری کنیم. از آنجایی هوش مصنوعی بیشتر و بیشتر شبیه به انسان میشود، روانشناسان روز به روز برای مطالعه آن آگاهتر میشوند، اما برای کاربردی بودن نتایج خود باید تحقیقات بیشتری انجام دهیم و با فناوری همگام باشیم.
پژوهشگران خواستار تحقیقات بیشتر برای بررسی عوامل اجتماعی، روانشناختی و فنی هستند که افراد را در برابر تأثیر روابط عاطفی انسان و هوش مصنوعی آسیبپذیرتر میکند.
این مقاله در مجله Cell Press منتشر شده است.
منبع: ایسنا