به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، در دنیای دوقطبی ما میتوان برای هرچیزی یک روی مثبت و یک روی منفی ساخت، این وظیفه بر دوش انسان است که از چاقو برای تهیه و تولید غذا استفاده کند یا به عنوان سلاح سرد برای مرگ یک آدم بی گناه، وضع گذشته، حال و آینده خودمان و جامعه بشری بر اساس تصمیماتی که خودمان گرفتهایم یا میگیریم ساخته میشود و این موضوعی انکار ناپذیر است.
از ابتدای ساخت سیستمهای رایانهای نوین، نوع استفاده مثبت و منفی آن به یکی از داغترین موضوعات در کشورهای مختلف تبدیل شد، کارشناسان اعتقاد داشتند که اثرگذاری کامپیوترها برروی انسانها بسیار گسترده خواهد بود و ترویج استفاده منفی از این سیستمها، میتواند درصد زیادی از مردم جهان را درگیر کند. طولی نکشید که پیشبینیها به واقعیت پیوست، در حال حاضر رایانههای شخصی، لپتاپها و تلفنهای هوشمند در هر منزلی یافت میشود و حتی کودکان نیز از این نوع وسایل استفاده میکنند، اما موضوع مهم نوع استفاده ما از فناوری است، یک لپتاپ میتواند وسیلهای برای رسیدن به دانشی برای نجات هزاران انسان باشد یا به عنوان یک ابزار جاسوسی، زندگی بسیاری از افراد را تحت تاثیر قرار دهد، تفاوت لپتاپ با چاقو نوع کارکردهای بسیار گسترده و اثرگذاری عمیقتر آن است، کارشناسان نیز از همان ابتدا به همین مسئله اشاره داشتند و به همین دلیل است که فناوری میتواند زندگی انسانها برروی کره زمین را تغییر دهد.
بیشتر بخوانید: واقعیت افزوده و واقعیت مجازی/ فناوریهایی با آینده درخشان یا هیجانی زودگذر؟
به این ترتیب از زمان تولد رایانه، خطر آن نیز آغاز شد، سیستمهای هوشمند رایانهای توانایی انجام کارهای فراوانی را دارند و این موضوع انسانها را در موضع قدرت قرار میدهد، باید اقرار کرد که جنبه مثبت فناوری، تاثیر بیانتهایی در بهبود زندگی انسانها گذاشته اما در دنیایی موازی، افرادی به جای استفاده صحیح از رایانه، از آن در مسیر دزدی، کلاهبرداری، تولید محتوای نامناسب و حتی تغییر واقعیت به دروغ استفاده میکنند.
شاید تا یکی دو سال پیش، نهایت تلاش افراد سودجو برای تغییر دادن واقعیت به ویرایش یک عکس در فتوشاپ ختم میشد، اما امروز از فناوریهایی صحبت میشود که دیگر به یک عکس دو بعدی ثابت، محدود نمیشود، روی صحبت ما با فیلمهای ویدئویی است، فناوری به نام دیپ فیک آمده تا مرز میان حقیقت و دروغ را از بین ببرد. قدرت دیپ فیک را با مثالی توضیح میدهیم، فرض کنید ویدئویی به شما نشان داده شود که در آن خودتان با لباسی رسمی، در میان انبوهی از جمعیت در حال سخنرانی برای انتخابات ریاست جمهوری هستید، تمامی حرکات و رفتارهای شما در فیلم واقعی است، دستتان را حرکت میدهید، بدنتان حرکت میکند، بر صورتتان گاهی لبخند و گاهی اخم نقش میبندد، حتی صدای آن شخص در ویدئو نیز دقیقا صدای خودتان است، در این لحظه شما گیج خواهید شد، چه اتفاقی افتاده؟ شما که برادر یا خواهر دوقلویی ندارید، پس آن فرد در ویدئو کیست؟ دیپ فیک میتواند به همین قدر واقعیت و دروغ را تغییر دهد.
مثالی دیگر: فرض کنید ویدئویی به شما نشان داده میشود، این بار جناب دونالد ترامپ، رئیس جمهور آمریکا درون ویدئو در حالی که در کاخ سفید نشسته و در حال مصاحبه رسمی با یکی از خبرگزاریهای مهم دنیا است از حقیقتی عجیب پرده برداری میکند، او میگویید که اصالتی ایرانی دارد! این درحالی است که مصاحبه کاملا جدی به نظر میرسد و ترامپ خودش با همان صدا و رفتارهای همیشگی واقعا این حرفها را به زبان میآورد، در ادامه ویدئو ترامپ برای اثبات حقیقت به زبان فارسی صحبت میکند! او میگوید که در یکی از روستاهای ایران به دنیا آمده و حال میخواهد به ایران بازگردد و زندگی جدیدی را آغاز کند! با دیپ فیک توانایی ساخت چنین ویدئویی وجود دارد.
ویدئو زیر را نگاه کنید، در این فیلم اوباما صحبتهایی را انجام میدهد که در واقعیت هرگز انجام نداده، در واقع ویدئو زیر یک نمونه از دیپ فیک است، در این ویدئو تمام صحبتهای اوباما از ویدئویی که جوردن پیل، بازیگر آمریکایی از خود ضبط کرده برداشته شده، اما همانطور که میبینید تشخیص این موضوع بسیار سخت است، زیرا ویدئو اوباما کاملا واقعی به نظر میرسد.
دیپ فیک به طور کلی یک تکنیک یا فناوری در تغییر ویدئو و حتی عکس است که میتواند به واقعیترین شکل ممکن، چهره افراد، صدا، حرکات دست و بدن آنها را تغییر دهد، با دیپ فیک میتوان صحبتهای جعلی به یک سخنرانی اضافه کرد آنهم در حالی که صدا و حرکت لبهای شخص سخنران، نشان دهده آن است که این حرفها از زبان او گفته میشود اما در حقیقت این یک دروغ است. یا دیپ فیک میتوان چهره افراد حاضر در یک ویدئو را عوض کرد، به این ترتیب با تغییر صورت سخنران، میتوان صبحتهای زده شده در ویدئو را به یک نفر دیگر نسبت داد. با دیپ فیک حتی میتوان یک نقاشی را به صحبت درآورد، فرض کنید ویدئویی از مونالیزا vh میبینید که در حال صحبت در مورد سیاست است.
اما قبل از آنکه به سراغ فناوری دیپ فیک برویم کمی به ریشههای آن خواهیم پرداخت، دیپ فیک خیلی هم برای ما غریب نیست، حتما با نرم افزار Face App آشنا هستید، برنامهای که توسط یک توسعه دهنده نامعتبر ساخته شده و به نقل خیلی از کارشناسان، قابلیت جاسوسی از تلفنهای همراه را دارد، در این برنامه با ارسال یک چهره، حالتهای پیری، کودکی و موارد دیگری را به شکلی واقعی دریافت خواهید کرد، الگوریتمهای پایهای این برنامه در دیپ فیک کاربرد دارد، یا در فیلترهای تغییر چهره در برنامهای مانند اسنپچت که بیشتر به واقعیت افزوده وابسطه است نیز از بخشی از الگوریتمهای پایهای دیپ فیک استفاده میکند. البته قسمت اعظمی از ریشههای دیپ فیک به هالیوود باز میگردد، تغییر رایانهای چهره در فیلمهای سینمایی مختلف کار متداولی است و همه ما نمونههای مختلفی از آن را دیدهایم.
دیپ فیک از یک الگوریتم پیچیده هوش مصنوعی استفاده میکند، این الگوریتم فعلا عمومی نشده و در حال حاضر در اختیار برخی از گروههای مطالعاتی دانشگاهی و برخی از افراد سودجو قرار دارد، البته چنین الگوریتیم در محیط تحقیقاتی دانشگاهی نیز تولید شده است.
ساخت ویدئوهایی برپایه دیپ فیک آسان نیست، بهخصوص برای تغییر چهره باید حالتهای مختلف چهره فرد مورد نظر را به این الگوریتم داد، برای همین ساخت دیپ فیک برای افراد مشهور که هزاران ویدئو و عکس از آنها در حالتهای مختلف موجود است کار آسانتری نسبت به ساخت یک ویدئو برای یک فرد عادی محسوب میشود، دقت و کیفیت ویدئو ساخته شده نیز در حالتی که منبع گستردهای از عکس و حالتهای مختلف چهره شخص به الگوریتم داده شود، بالاتر خواهد رفت. اما به طور کلی برای هر کسی که یک یا چند ویدئو از خود در اینترنت یا شبکههای اجتماعی منتشر کرده باشد میتوان یک فیلم دروغین بر اساس دیپ فیک ساخت.
تغییر چهره و صدا با طبیعیترین حالت ممکن در یک ویدئو، ماهیت اصلی دیپ فیک است، اتفاقی که شاید در وهله اول برای ساخت ویدئوهای طنز بسیار کاربرد داشته باشد، اما به زودی مرزی میان واقعیت و کذب باقی نمیگذارد. با متداول شدن این فناوری، دیگر نمیتوان به هیچ ویدئویی اطمینان کرد.
با بررسی جنبههای مختلف دیپ فیک به راحتی میتوان به خطرات جبران ناپذیر آن پی برد، خطراتی که همین حالا نیز گوشههای از آن دیده میشود، با دیپ فیک واقعیتها به دروغ، دروغها به واقعیت تبدیل میشود، با دیپ فیک میتوان توطئه کرد، مردم را گمراه ساخت و حتی با آبروی افراد بازی کرد.
با متداول شدن دیپ فیک دیگر نمیتوان به فیلمهای منتشر شده از افراد سیاسی اعتماد کرد، در این روش امکان تحریف تمام سخنرانیها، مصاحبهها و گفتوگوها وجود دارد، در این حال با نزدیکی به یک انتخابات سیاسی، تشخیص حق و باطل بسیار دشوار خواهد شد.
یکی دیگر از کاربردهای دیپ فیک در مسائل اخلاقی خود را نشان میدهد، تا همین لحظه چندین ویدئو مستهجن و دروغین از بازیگران مطرح زن آمریکایی ساخته شده که بازتاپ گستردهای نیز در فضای اینترنت داشته است، البته همه میدانند که در این ویدئوها از تکنیک تغییر چهره استفاده شده و اصالت آنها دروغین است اما این مورد چیزی از تاثیرات مخرب این ویدئوها نمیکاهد. شاید بازیگر زن آمریکایی خیلی به این مسائل اهمیت ندهد، اما با فراگیر شدن این فناوری، ساخت این ویدئوها در کشورهای مسلمان بسیار فاجعه انگیز خواهد بود.
همچنین دیپ فیک یک فناوری بسیار کاربردی برای اخاذی و دزدی محسوب میشود، فرض کنید فردی با ساخت یکی از همین ویدئوهای غیر اخلاقی از شما، برای عدم انتشار آن پول مطالبه کند، در صورت انتشار نیز راهی برای اثبات دروغین بودن آن وجود ندارد و به این ترتیب بنیان خانواده از هم گسیخته میشود. با دیپ فیک به آسانی میتوان با آبروی مردم بازی کرد.
در حال حاضر خیر، اما گروههای زیادی به دنبال آن هستند تا با الگوریتمهای خاص، واقعی یا دروغین بودن یک ویدئو را مشخص کنند، در این حالت بخش عمدهای از تاثیرات مخرب دیپ فیک کاسته میشود، البته هیچ تضمینی برای موفقیت آمیز بودن این تحقیقات نیست.
دیپ فیک همان استفاده منفی از فناوری است که در سطح بالایی خود را بروز میدهد، این انتخاب انسانها است که از ماهیت خوب فناوری، استفادهای ناصحیح داشته باشند، حمایت کاربران نیز از برنامههایی مانند Face App موجب شد تا ایده و انگیزه ساخت چنین الگوریتمهایی برای ایجاد تغییر در ویدئوها، تقویت شود. همان ایده پیر کردن یک چهره به تغییر صورت یک انسان و ساخت ویدئویی کذب برای آن منجر شده، این موضوع نشان دهنده اهمیت رفتار کاربران در دنیای مجازی و پرداختن به موضوعات مختلفی است که در آینده میتواند دردسرساز شود.
انتهای پیام/