یک مطالعه تازه در مورد افزایش موارد کلاهبرداری با استفاده از تقلید صدای تولید شده از طریق هوش مصنوعی هشدار داده است.

مطالعه‌ای در کالج دانشگاهی لندن نشان داده است که بیش از یک چهارم صدا‌های تقلید شده با استفاده از ابزار موسوم به "Deepfake"، موفق شده اند حتی تیزترین و با تمرکزترین شنوندگان را فریب دهند.

به گفته محققان کالج دانشگاهی لندن، بیش از ۵۰۰ نفر که برای تشخیص صدا‌های واقعی از صدا‌های تقلیدی آموزش دیده بودند، توانستند تنها ۷۳ درصد از صدا‌های تقلید شده را در طول مطالعه تشخیص دهند.

این مطالعه با استفاده از دو زبان انگلیسی و چینی انجام شد که در آن درصد‌های به دست آمده برای هر دو زبان مشابه بود؛ اما این تیم تحقیقاتی دریافت که انگلیسی زبانان صدای انسان از صدای جعلی را از طریق ریتم تنفس تشخیص می‌دهند، در حالی که چینی‌ها از طریق ریتم، سرعت و روانی گفتار، موفق به تشخیص شدند.

طبق گزارشات موجود، در برهه اخیر از صدا‌های جعلی برای کلاهبرداری از مردم و گرفتن پول از آن‌ها با معرفی خود به عنوان دوست یا شریک تجاری و درخواست از قربانی برای انتقال پول استفاده می‌شود.

پیشرفت‌های اخیر در فناوری هوش مصنوعی، نگرانی‌هایی را در مورد احتمال وقوع کلاهبرداری‌های گسترده، به ویژه با توانایی برنامه‌های هوش مصنوعی برای تقلید صدا با دقت بالا، افزایش داده است.

گروهی از محققان دانشگاه لندن هشدار داده اند که در نتیجه پیشرفت فناوری، تولید یک کپی تقریبا واقعی از صدای هر شخصی با استفاده از ضبط چند کلمه از صدای او ممکن شده است.

محققان گفتند که نتایج این مطالعه ممکن است به طور صد در صد واقعیت را منعکس نکند، زیرا شرکت کنندگان در مطالعه، حتی آن‌هایی که آموزش ندیده بودند، می‌دانستند که بخشی از یک آزمایش هستند و بنابراین بیشتر بر روی تشخیص صدا‌های تقلیدی تمرکز کردند.

بیشتر تلاش‌ها برای مبارزه با کلاهبرداری از طریق تقلید صدا، در حال حاضر بر استفاده از سیستم‌های هوش مصنوعی برای شناسایی صدا‌های جعلی متمرکز است که در همان سطح عملکرد افراد شرکت‌کننده در آزمایش دانشگاه عمل کرده اند، اما در مقایسه با افرادی که نمی‌دانستند در حال آزمایش هستند، عملکرد بهتری دارند.

محققان تأکید کرده اند که با توجه به پیشرفت چشمگیر در تکنیک‌های تقلید صدا، توسعه ابزار‌های پیشرفته‌تر برای تشخیص این صدا‌های جعلی ضروری است.

منبع: 24.ae

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
آخرین اخبار