فناوری شبیه سازی Voice Engine چه خطراتی دارد؟

شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد.

آزمایش‌کنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده می‌کند.

 OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمی‌کند.

شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک می‌تواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.

شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.

این شرکت در بیانیه‌ای گفت: ما می‌دانیم که تولید صوتی که صدای مردم را تقلید می‌کند، خطرات قابل‌توجهی را به همراه دارد، و به‌ویژه در سال‌های انتخاباتی مهم است.

OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوه‌ای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".

همچنین توضیح داد که آزمایش‌کنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

تعدادی از استارت‌آپ‌ها در حال حاضر فناوری بازتولید صدا را می‌فروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیو‌های سرگرمی است.

منبع: المیادین

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.
نظرات کاربران
انتشار یافته: ۱
در انتظار بررسی: ۰
Iran (Islamic Republic of)
ناشناس
۱۳:۱۷ ۰۶ ارديبهشت ۱۴۰۳
اگه بتونه فارسی به انگلیسی و برعکس حرف بزنه برا آموزش زبان عالیه
آخرین اخبار